Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.15524

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.15524 (eess)
[提交于 2025年7月21日 ]

标题: RARE-UNet:自适应医学图像分割的分辨率对齐路由条目

标题: RARE-UNet: Resolution-Aligned Routing Entry for Adaptive Medical Image Segmentation

Authors:Simon Winther Albertsen, Hjalte Svaneborg Bjørnstrup, Mostafa Mehdipour Ghazi
摘要: 准确的分割对于临床应用至关重要,但现有模型通常假设固定且高分辨率的输入,在面对现实场景中的低分辨率数据时性能会显著下降。 为解决这一限制,我们提出了RARE-UNet,这是一种分辨率感知的多尺度分割架构,能够动态适应输入的空间分辨率。 我们的设计核心包括在多个编码器深度集成的多尺度块、分辨率感知的路由机制以及一致性驱动的训练,该训练将多分辨率特征与全分辨率表示对齐。 我们在两个基准脑成像任务中评估了RARE-UNet,用于海马体和肿瘤分割。 与标准UNet、其多分辨率增强变体以及nnUNet相比,我们的模型在不同分辨率下平均Dice分数达到最高,分别为0.84和0.65,同时在低分辨率下保持一致的性能并显著减少推理时间。 这些结果突显了我们的架构在实现分辨率鲁棒分割方面的有效性和可扩展性。 代码可在以下地址获取:https://github.com/simonsejse/RARE-UNet.
摘要: Accurate segmentation is crucial for clinical applications, but existing models often assume fixed, high-resolution inputs and degrade significantly when faced with lower-resolution data in real-world scenarios. To address this limitation, we propose RARE-UNet, a resolution-aware multi-scale segmentation architecture that dynamically adapts its inference path to the spatial resolution of the input. Central to our design are multi-scale blocks integrated at multiple encoder depths, a resolution-aware routing mechanism, and consistency-driven training that aligns multi-resolution features with full-resolution representations. We evaluate RARE-UNet on two benchmark brain imaging tasks for hippocampus and tumor segmentation. Compared to standard UNet, its multi-resolution augmented variant, and nnUNet, our model achieves the highest average Dice scores of 0.84 and 0.65 across resolution, while maintaining consistent performance and significantly reduced inference time at lower resolutions. These results highlight the effectiveness and scalability of our architecture in achieving resolution-robust segmentation. The codes are available at: https://github.com/simonsejse/RARE-UNet.
评论: EMA4MICCAI 2025
主题: 图像与视频处理 (eess.IV) ; 人工智能 (cs.AI); 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.15524 [eess.IV]
  (或者 arXiv:2507.15524v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.15524
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Mostafa Mehdipour Ghazi [查看电子邮件]
[v1] 星期一, 2025 年 7 月 21 日 11:49:20 UTC (2,022 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.CV
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号