电气工程与系统科学 > 图像与视频处理
[提交于 2025年7月8日
]
标题: 只需说更好或更差:一种无需手动注释的人机协作医学图像分割框架
标题: Just Say Better or Worse: A Human-AI Collaborative Framework for Medical Image Segmentation Without Manual Annotations
摘要: 人工标注医学图像是一项劳动密集且耗时的过程,这在开发和部署稳健的医学影像人工智能系统中构成了重大瓶颈。 本文介绍了一种新颖的人机协作框架,用于医学图像分割,该框架通过消除显式手动像素级标记的需求,显著减少了标注负担。 核心创新在于一种偏好学习范式,其中人类专家提供最少的、直观的反馈——只需指出AI生成的分割结果是否比之前版本更好或更差。 该框架包含四个关键组件:(1) 一个可适应的基础模型(FM)用于特征提取,(2) 基于特征相似性的标签传播,(3) 一个点击代理,它从人类的更好或更差反馈中学习,以决定在哪里点击以及使用哪种标签,(4) 一个多轮分割学习过程,利用点击代理和FM基础的标签传播生成的伪标签来训练最先进的分割网络。 在三个公开数据集上的实验表明,所提出的方法仅使用二元偏好反馈即可实现具有竞争力的分割性能,而无需专家直接手动标注图像。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.