Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.00434

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2506.00434 (cs)
[提交于 2025年5月31日 ]

标题: 基于轴位-冠状位-矢状位嵌入的高效三维脑肿瘤分割

标题: Efficient 3D Brain Tumor Segmentation with Axial-Coronal-Sagittal Embedding

Authors:Tuan-Luc Huynh, Thanh-Danh Le, Tam V. Nguyen, Trung-Nghia Le, Minh-Triet Tran
摘要: 本文针对医学影像中脑肿瘤分割这一关键任务,提出了创新的方法以提升其性能。目前最先进的nnU-Net已显示出良好的结果,但存在训练需求繁重且未能充分利用预训练权重的问题。 为克服这些局限性,我们将轴向、冠状面和矢状面卷积以及ImageNet的预训练权重整合到nnU-Net框架中,从而减少了训练周期数、可训练参数量,并提高了效率。提出两种策略将二维预训练权重转移到三维领域,确保了有效信息传播至关重要的学习关系和特征表示得以保留。 此外,我们探索了一种联合分类与分割模型,利用来自脑胶质瘤分级分类代理任务的预训练编码器,这显著提升了分割性能,特别是在处理具有挑战性的肿瘤标签时。 实验结果显示,在快速训练设置下,我们提出的方案达到了与交叉验证模型集成方法相当甚至更好的效果,这是脑肿瘤分割文献中的常见做法。
摘要: In this paper, we address the crucial task of brain tumor segmentation in medical imaging and propose innovative approaches to enhance its performance. The current state-of-the-art nnU-Net has shown promising results but suffers from extensive training requirements and underutilization of pre-trained weights. To overcome these limitations, we integrate Axial-Coronal-Sagittal convolutions and pre-trained weights from ImageNet into the nnU-Net framework, resulting in reduced training epochs, reduced trainable parameters, and improved efficiency. Two strategies for transferring 2D pre-trained weights to the 3D domain are presented, ensuring the preservation of learned relationships and feature representations critical for effective information propagation. Furthermore, we explore a joint classification and segmentation model that leverages pre-trained encoders from a brain glioma grade classification proxy task, leading to enhanced segmentation performance, especially for challenging tumor labels. Experimental results demonstrate that our proposed methods in the fast training settings achieve comparable or even outperform the ensemble of cross-validation models, a common practice in the brain tumor segmentation literature.
评论: 已被PSIVT 2023录用。最佳论文奖。仓库:https://github.com/LouisDo2108/ACS-nnU-Net
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.00434 [cs.CV]
  (或者 arXiv:2506.00434v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.00434
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.1007/978-981-97-0376-0_11
链接到相关资源的 DOI

提交历史

来自: Tuan-Luc Huynh [查看电子邮件]
[v1] 星期六, 2025 年 5 月 31 日 07:30:37 UTC (1,755 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号