Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2506.23664

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2506.23664 (eess)
[提交于 2025年6月30日 (v1) ,最后修订 2025年7月10日 (此版本, v2)]

标题: 基于扩散模型的胎儿头部超声分割数据增强方法

标题: Diffusion Model-based Data Augmentation Method for Fetal Head Ultrasound Segmentation

Authors:Fangyijie Wang, Kevin Whelan, Félix Balado, Kathleen M. Curran, Guénolé Silvestre
摘要: 医学影像数据由于隐私和监管限制,在其他领域中更难获取。此外,标记需要临床专家进行成本高昂、耗时的手动图像标注。为克服这些挑战,合成医学数据生成提供了一个有前景的解决方案。生成式人工智能(GenAI)采用生成深度学习模型,已被证明在生成逼真的合成图像方面非常有效。本研究提出了一种新颖的基于掩码引导的GenAI方法,使用扩散模型生成与分割掩码配对的合成胎儿头部超声图像。这些合成对用于监督微调分割一切模型(SAM)的真实数据集。我们的结果表明,合成数据有效地捕捉了真实图像特征,并且在使用有限的真实图像-掩码对进行训练时,该方法达到了最先进的胎儿头部分割效果。特别是,使用来自西班牙队列和非洲队列的少量超声图像,分割的Dice分数分别达到94.66%和94.38%。我们的代码、模型和数据可在GitHub上获得。
摘要: Medical image data is less accessible than in other domains due to privacy and regulatory constraints. In addition, labeling requires costly, time-intensive manual image annotation by clinical experts. To overcome these challenges, synthetic medical data generation offers a promising solution. Generative AI (GenAI), employing generative deep learning models, has proven effective at producing realistic synthetic images. This study proposes a novel mask-guided GenAI approach using diffusion models to generate synthetic fetal head ultrasound images paired with segmentation masks. These synthetic pairs augment real datasets for supervised fine-tuning of the Segment Anything Model (SAM). Our results show that the synthetic data captures real image features effectively, and this approach reaches state-of-the-art fetal head segmentation, especially when trained with a limited number of real image-mask pairs. In particular, the segmentation reaches Dice Scores of 94.66\% and 94.38\% using a handful of ultrasound images from the Spanish and African cohorts, respectively. Our code, models, and data are available on GitHub.
评论: 被爱尔兰机器视觉与图像处理会议(IMVIP)2025接受
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.23664 [eess.IV]
  (或者 arXiv:2506.23664v2 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.23664
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Fangyijie Wang [查看电子邮件]
[v1] 星期一, 2025 年 6 月 30 日 09:40:12 UTC (2,810 KB)
[v2] 星期四, 2025 年 7 月 10 日 10:51:46 UTC (2,811 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号