Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.12331

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.12331 (eess)
[提交于 2025年1月21日 ]

标题: Cinepro:前列腺超声癌症检测基础模型的稳健训练 Cineloops

标题: Cinepro: Robust Training of Foundation Models for Cancer Detection in Prostate Ultrasound Cineloops

Authors:Mohamed Harmanani, Amoon Jamzad, Minh Nguyen Nhat To, Paul F.R. Wilson, Zhuoxin Guo, Fahimeh Fooladgar, Samira Sojoudi, Mahdi Gilany, Silvia Chang, Peter Black, Michael Leveridge, Robert Siemens, Purang Abolmaesumi, Parvin Mousavi
摘要: 前列腺癌(PCa)检测使用深度学习(DL)模型在增强活检过程中的实时指导方面显示出潜力。然而,前列腺超声图像缺乏像素级别的癌症标注,导致标签噪声的引入。目前的方法通常集中在有限的兴趣区域(ROIs),忽略了准确诊断所需的解剖学背景。基础模型可以通过分析整个图像来捕捉全局空间关系以克服这一限制;然而,它们仍然面临来自超声数据中粗略病理标注所关联的弱标签带来的挑战。我们介绍了Cinepro,这是一种新颖的框架,增强了基础模型在超声动态图像中定位PCa的能力。Cinepro通过将病理报告中标记的活检核心中癌症组织的比例整合到其损失函数中,以适应鲁棒训练,从而解决标签噪声问题,提供更细致的监督。此外,它利用多帧中的时间数据应用鲁棒增强,提高模型学习稳定癌症相关特征的能力。Cinepro在一个多中心前列腺超声数据集上表现出色,达到了77.1%的AUROC和83.8%的平衡准确率,超越了当前基准。这些发现强调了Cinepro在推进弱标签超声数据的基础模型方面的前景。
摘要: Prostate cancer (PCa) detection using deep learning (DL) models has shown potential for enhancing real-time guidance during biopsies. However, prostate ultrasound images lack pixel-level cancer annotations, introducing label noise. Current approaches often focus on limited regions of interest (ROIs), disregarding anatomical context necessary for accurate diagnosis. Foundation models can overcome this limitation by analyzing entire images to capture global spatial relationships; however, they still encounter challenges stemming from the weak labels associated with coarse pathology annotations in ultrasound data. We introduce Cinepro, a novel framework that strengthens foundation models' ability to localize PCa in ultrasound cineloops. Cinepro adapts robust training by integrating the proportion of cancer tissue reported by pathology in a biopsy core into its loss function to address label noise, providing a more nuanced supervision. Additionally, it leverages temporal data across multiple frames to apply robust augmentations, enhancing the model's ability to learn stable cancer-related features. Cinepro demonstrates superior performance on a multi-center prostate ultrasound dataset, achieving an AUROC of 77.1% and a balanced accuracy of 83.8%, surpassing current benchmarks. These findings underscore Cinepro's promise in advancing foundation models for weakly labeled ultrasound data.
评论: 被接受到IEEE ISBI 2025
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG); 组织与器官 (q-bio.TO)
引用方式: arXiv:2501.12331 [eess.IV]
  (或者 arXiv:2501.12331v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.12331
通过 DataCite 发表的 arXiv DOI
期刊参考: 2025 IEEE 22nd International Symposium on Biomedical Imaging (ISBI)
相关 DOI: https://doi.org/10.1109/ISBI60581.2025.10981222
链接到相关资源的 DOI

提交历史

来自: Mohamed Harmanani [查看电子邮件]
[v1] 星期二, 2025 年 1 月 21 日 18:05:11 UTC (16,407 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.CV
cs.LG
eess.IV
q-bio
q-bio.TO

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号