电气工程与系统科学 > 图像与视频处理
[提交于 2025年1月8日
(v1)
,最后修订 2025年4月4日 (此版本, v2)]
标题: 重新思考医学图像分割中的领域泛化:一张图像作为一个领域
标题: Rethinking domain generalization in medical image segmentation: One image as one domain
摘要: 医学图像分割中的领域转移,尤其是在数据来自不同中心时,带来了重大挑战。 中心内部的差异,例如扫描仪型号或成像协议的不同,可能导致领域转移,其规模甚至可能大于或超过中心之间的领域转移。 为了解决这个问题,我们提出了“一张图像作为一个领域”(OIOD)假设,将每张图像视为一个独特的领域,从而实现灵活且稳健的领域泛化。 基于这一假设,我们开发了一个统一的解耦领域泛化(UniDDG)框架,能够在不需显式领域标签的情况下同时处理多源和单源领域泛化。 这种方法通过固定架构进行训练,与源领域的数量无关,降低了复杂性并提高了可扩展性。 我们将每个输入图像解耦为内容表示和风格代码,然后在批次内交换和组合这些内容以进行分割、重建和进一步的解耦。 通过为每张图像保持独立的风格代码,我们的模型确保了内容表示和风格代码的彻底解耦,提高了内容表示的领域不变性。 此外,我们通过扩展掩码注意力(EMA)增强泛化能力以保持边界,并通过风格增强(SA)模拟多样的图像风格,提高对领域转移的鲁棒性。 大量实验表明,我们的方法在视盘和视杯分割中分别实现了多源到单中心和单中心泛化的Dice分数为84.43%和88.91%,在前列腺分割中分别为86.96%和88.56%,优于当前最先进的领域泛化方法,在临床环境中表现出更优的性能和适应性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.