计算机科学 > 计算机视觉与模式识别
[提交于 2025年6月3日
]
标题: 分层自提示SAM:一种无需提示的医学图像分割框架
标题: Hierarchical Self-Prompting SAM: A Prompt-Free Medical Image Segmentation Framework
摘要: 尽管 Segment Anything Model (SAM) 在自然图像分割方面非常有效,但它依赖于提示,这限制了它在医疗成像中的适用性,在医疗成像中手动提示通常是不可用的。 现有针对医学分割微调 SAM 的努力通常难以去除这种依赖性。 我们提出了分层自提示 SAM(HSP-SAM),这是一种新颖的自提示框架,使 SAM 能够在无提示的医学图像分割中实现强大的性能。 与以往局限于类似 vanilla SAM 的位置提示的自提示方法不同,我们首次在自提示过程中引入了抽象提示的学习。 这个简单直观的自提示框架在诸如结肠息肉和皮肤病变分割的经典分割任务中表现出色,同时在多种医学成像模态上保持了鲁棒性。 此外,它在未见过的数据集上表现出强大的泛化能力,在某些具有挑战性的基准测试中比以前最先进的方法提高了多达 14.04%。 这些结果表明,抽象提示相较于位置提示封装了更丰富、更高维度的语义信息,从而增强了模型的鲁棒性和泛化性能。 所有模型和代码将在接受后发布。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.