Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.05582v1

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.05582v1 (eess)
[提交于 2025年7月8日 ]

标题: 从放射学报告中学习分割

标题: Learning Segmentation from Radiology Reports

Authors:Pedro R. A. S. Bassi, Wenxuan Li, Jieneng Chen, Zheren Zhu, Tianyu Lin, Sergio Decherchi, Andrea Cavalli, Kang Wang, Yang Yang, Alan L. Yuille, Zongwei Zhou
摘要: 肿瘤分割在CT扫描中对于诊断、手术和预后至关重要,但分割掩码稀缺,因为其创建需要时间和专业知识。 公共腹部CT数据集中的肿瘤掩码数量从几十到几千不等,但医院有数十万张肿瘤CT图像和放射科报告。 因此,利用报告来提高分割效果对于扩展至关重要。 在本文中,我们提出了一种报告监督损失(R-Super),将放射科报告转换为用于肿瘤分割的体素级监督。 我们创建了一个包含6,718对CT-报告的数据集(来自UCSF医院),并将其与公共CT-掩码数据集(来自AbdomenAtlas 2.0)合并。 我们使用R-Super结合这些掩码和报告进行训练,在内部和外部验证中显著提高了肿瘤分割效果——与仅使用掩码训练相比,F1分数最高提高了16%。 通过利用易于获得的放射科报告来补充稀缺的分割掩码,R-Super在仅有少量训练掩码(例如,50个)或大量掩码(例如,1.7K个)的情况下都显著提升了AI性能。 项目:https://github.com/MrGiovanni/R-Super
摘要: Tumor segmentation in CT scans is key for diagnosis, surgery, and prognosis, yet segmentation masks are scarce because their creation requires time and expertise. Public abdominal CT datasets have from dozens to a couple thousand tumor masks, but hospitals have hundreds of thousands of tumor CTs with radiology reports. Thus, leveraging reports to improve segmentation is key for scaling. In this paper, we propose a report-supervision loss (R-Super) that converts radiology reports into voxel-wise supervision for tumor segmentation AI. We created a dataset with 6,718 CT-Report pairs (from the UCSF Hospital), and merged it with public CT-Mask datasets (from AbdomenAtlas 2.0). We used our R-Super to train with these masks and reports, and strongly improved tumor segmentation in internal and external validation--F1 Score increased by up to 16% with respect to training with masks only. By leveraging readily available radiology reports to supplement scarce segmentation masks, R-Super strongly improves AI performance both when very few training masks are available (e.g., 50), and when many masks were available (e.g., 1.7K). Project: https://github.com/MrGiovanni/R-Super
评论: 被MICCAI 2025接收
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.05582 [eess.IV]
  (或者 arXiv:2507.05582v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.05582
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zongwei Zhou [查看电子邮件]
[v1] 星期二, 2025 年 7 月 8 日 01:37:34 UTC (9,820 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号