计算机科学 > 计算机视觉与模式识别
[提交于 2024年10月31日
]
标题: 我们有多好? 通过人机交互增强评估细胞AI基础模型在肾脏病理学中的表现
标题: How Good Are We? Evaluating Cell AI Foundation Models in Kidney Pathology with Human-in-the-Loop Enrichment
摘要: 训练人工智能基础模型已成为一种有前景的大规模学习方法,用于解决现实世界的医疗保健挑战,包括数字病理学。 尽管这些模型中的许多都是通过使用广泛和多样的训练数据集来开发用于疾病诊断和组织定量等任务,但它们在某些可能最简单的任务(例如单个器官内的细胞核分割(如肾脏))上的部署准备情况仍不确定。 本文旨在通过全面评估最近的细胞基础模型在一个精心挑选的多中心、多疾病和多物种外部测试数据集上的性能,来回答这个关键问题,“我们做得怎么样?” 此外,我们还通过开发和评估人机协同的数据增强策略,解决了一个更具挑战性的问题,“我们如何改进?”这些策略旨在提高模型性能的同时,尽量减少对像素级人工标注的依赖。 为了解决第一个问题,我们整理了一个包含2,542张肾脏全切片图像(WSI)的多中心、多疾病和多物种数据集。 选择了三种最先进的(SOTA)细胞基础模型——Cellpose、StarDist和CellViT进行评估。 为了解决第二个问题,我们通过一个带有人工参与的框架,从不同的基础模型中提炼预测结果,探索数据增强算法,旨在以最小的人工努力进一步提升基础模型的性能。 我们的实验结果表明,所有三个基础模型在使用增强数据进行模型微调后都优于其基线模型。 有趣的是,基线模型中F1分数最高的模型在微调后并没有产生最佳的分割结果。 这项研究为针对真实世界数据应用的细胞视觉基础模型的开发和部署建立了一个基准。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.