Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.04741

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.04741 (eess)
[提交于 2025年1月8日 (v1) ,最后修订 2025年4月4日 (此版本, v2)]

标题: 重新思考医学图像分割中的领域泛化:一张图像作为一个领域

标题: Rethinking domain generalization in medical image segmentation: One image as one domain

Authors:Jin Hong, Bo Liu, Guoli Long, Siyue Li, Khan Muhammad
摘要: 医学图像分割中的领域转移,尤其是在数据来自不同中心时,带来了重大挑战。 中心内部的差异,例如扫描仪型号或成像协议的不同,可能导致领域转移,其规模甚至可能大于或超过中心之间的领域转移。 为了解决这个问题,我们提出了“一张图像作为一个领域”(OIOD)假设,将每张图像视为一个独特的领域,从而实现灵活且稳健的领域泛化。 基于这一假设,我们开发了一个统一的解耦领域泛化(UniDDG)框架,能够在不需显式领域标签的情况下同时处理多源和单源领域泛化。 这种方法通过固定架构进行训练,与源领域的数量无关,降低了复杂性并提高了可扩展性。 我们将每个输入图像解耦为内容表示和风格代码,然后在批次内交换和组合这些内容以进行分割、重建和进一步的解耦。 通过为每张图像保持独立的风格代码,我们的模型确保了内容表示和风格代码的彻底解耦,提高了内容表示的领域不变性。 此外,我们通过扩展掩码注意力(EMA)增强泛化能力以保持边界,并通过风格增强(SA)模拟多样的图像风格,提高对领域转移的鲁棒性。 大量实验表明,我们的方法在视盘和视杯分割中分别实现了多源到单中心和单中心泛化的Dice分数为84.43%和88.91%,在前列腺分割中分别为86.96%和88.56%,优于当前最先进的领域泛化方法,在临床环境中表现出更优的性能和适应性。
摘要: Domain shifts in medical image segmentation, particularly when data comes from different centers, pose significant challenges. Intra-center variability, such as differences in scanner models or imaging protocols, can cause domain shifts as large as, or even larger than, those between centers. To address this, we propose the "one image as one domain" (OIOD) hypothesis, which treats each image as a unique domain, enabling flexible and robust domain generalization. Based on this hypothesis, we develop a unified disentanglement-based domain generalization (UniDDG) framework, which simultaneously handles both multi-source and single-source domain generalization without requiring explicit domain labels. This approach simplifies training with a fixed architecture, independent of the number of source domains, reducing complexity and enhancing scalability. We decouple each input image into content representation and style code, then exchange and combine these within the batch for segmentation, reconstruction, and further disentanglement. By maintaining distinct style codes for each image, our model ensures thorough decoupling of content representations and style codes, improving domain invariance of the content representations. Additionally, we enhance generalization with expansion mask attention (EMA) for boundary preservation and style augmentation (SA) to simulate diverse image styles, improving robustness to domain shifts. Extensive experiments show that our method achieves Dice scores of 84.43% and 88.91% for multi-source to single-center and single-center generalization in optic disc and optic cup segmentation, respectively, and 86.96% and 88.56% for prostate segmentation, outperforming current state-of-the-art domain generalization methods, offering superior performance and adaptability across clinical settings.
主题: 图像与视频处理 (eess.IV)
引用方式: arXiv:2501.04741 [eess.IV]
  (或者 arXiv:2501.04741v2 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.04741
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jin Hong [查看电子邮件]
[v1] 星期三, 2025 年 1 月 8 日 03:29:52 UTC (1,672 KB)
[v2] 星期五, 2025 年 4 月 4 日 16:50:34 UTC (1,806 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号