Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.17269

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.17269 (eess)
[提交于 2025年7月23日 ]

标题: MyGO:使您的目标显而易见,在前列腺癌病灶区域分割中避免语义混淆

标题: MyGO: Make your Goals Obvious, Avoiding Semantic Confusion in Prostate Cancer Lesion Region Segmentation

Authors:Zhengcheng Lin (1), Zuobin Ying (2), Zhenyu Li (3), Zhenyu Liu (4), Jian Lu (5), Weiping Ding (6) ((1), (2) City University of Macau, (3) Shandong University, (4) Chinese Academy of Sciences, (5) Peking University, (6) Nantong University)
摘要: 早期诊断和准确识别前列腺癌(PCa)中的病灶位置和进展对于帮助临床医生制定有效的治疗策略至关重要。 然而,由于病灶区域与非病灶区域之间存在高度的语义同质性,现有的医学图像分割方法往往难以准确理解病灶语义,导致语义混淆的问题。 为了解决这一挑战,我们提出了一种新的像素锚点模块,该模块引导模型发现一组稀疏的特征锚点,用于捕捉和解释全局上下文信息。 此机制增强了模型的非线性表示能力,并提高了病灶区域内的分割准确性。 此外,我们设计了一种基于自注意力的Top_k选择策略,以进一步精确定位这些特征锚点,并引入焦点损失函数以缓解类别不平衡问题,从而促进在不同区域内的更精确语义解释。 我们的方法在PI-CAI数据集上实现了最先进的性能,展示了69.73%的IoU和74.32%的Dice分数,并显著提高了前列腺癌病灶检测效果。
摘要: Early diagnosis and accurate identification of lesion location and progression in prostate cancer (PCa) are critical for assisting clinicians in formulating effective treatment strategies. However, due to the high semantic homogeneity between lesion and non-lesion areas, existing medical image segmentation methods often struggle to accurately comprehend lesion semantics, resulting in the problem of semantic confusion. To address this challenge, we propose a novel Pixel Anchor Module, which guides the model to discover a sparse set of feature anchors that serve to capture and interpret global contextual information. This mechanism enhances the model's nonlinear representation capacity and improves segmentation accuracy within lesion regions. Moreover, we design a self-attention-based Top_k selection strategy to further refine the identification of these feature anchors, and incorporate a focal loss function to mitigate class imbalance, thereby facilitating more precise semantic interpretation across diverse regions. Our method achieves state-of-the-art performance on the PI-CAI dataset, demonstrating 69.73% IoU and 74.32% Dice scores, and significantly improving prostate cancer lesion detection.
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.17269 [eess.IV]
  (或者 arXiv:2507.17269v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.17269
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Zhengcheng Lin [查看电子邮件]
[v1] 星期三, 2025 年 7 月 23 日 07:10:07 UTC (403 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号