Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.00582

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.00582 (eess)
[提交于 2025年7月1日 (v1) ,最后修订 2025年7月8日 (此版本, v2)]

标题: 通过深度平衡模型弥合经典和基于学习的迭代配准

标题: Bridging Classical and Learning-based Iterative Registration through Deep Equilibrium Models

Authors:Yi Zhang, Yidong Zhao, Qian Tao
摘要: 可变形医学图像配准传统上被表述为一个优化问题。 虽然经典方法通过迭代解决这个问题,但最近的基于学习的方法使用循环神经网络(RNN)通过在固定步骤数内展开形变场的预测来模仿这一过程。 然而,经典方法通常在足够迭代后收敛,但基于学习的展开方法缺乏理论上的收敛保证,并且在实践中表现出不稳定性。 此外,展开方法在训练时有一个实际的瓶颈:由于时间反向传播(BPTT),GPU内存使用量随着展开步骤线性增长。 为了解决理论和实践上的挑战,我们提出了DEQReg,一种基于深度平衡模型(DEQ)的新配准框架,它将配准表述为寻找平衡的问题,建立了经典优化方法和基于学习的展开方法之间的自然联系。 DEQReg保持恒定的内存使用量,从而实现理论上无限的迭代步骤。 通过在公开的脑部MRI和肺部CT数据集上的广泛评估,我们表明DEQReg可以实现具有竞争力的配准性能,同时相比最先进的展开方法显著减少了内存消耗。 我们还揭示了一个有趣的现象:当推理步骤超过训练配置时,现有展开方法的性能先略有提高,然后不可逆地下降。 相比之下,DEQReg通过其内置的平衡寻找机制实现了稳定的收敛,弥合了基于经典优化和现代基于学习的配准方法之间的差距。
摘要: Deformable medical image registration is traditionally formulated as an optimization problem. While classical methods solve this problem iteratively, recent learning-based approaches use recurrent neural networks (RNNs) to mimic this process by unrolling the prediction of deformation fields in a fixed number of steps. However, classical methods typically converge after sufficient iterations, but learning-based unrolling methods lack a theoretical convergence guarantee and show instability empirically. In addition, unrolling methods have a practical bottleneck at training time: GPU memory usage grows linearly with the unrolling steps due to backpropagation through time (BPTT). To address both theoretical and practical challenges, we propose DEQReg, a novel registration framework based on Deep Equilibrium Models (DEQ), which formulates registration as an equilibrium-seeking problem, establishing a natural connection between classical optimization and learning-based unrolling methods. DEQReg maintains constant memory usage, enabling theoretically unlimited iteration steps. Through extensive evaluation on the public brain MRI and lung CT datasets, we show that DEQReg can achieve competitive registration performance, while substantially reducing memory consumption compared to state-of-the-art unrolling methods. We also reveal an intriguing phenomenon: the performance of existing unrolling methods first increases slightly then degrades irreversibly when the inference steps go beyond the training configuration. In contrast, DEQReg achieves stable convergence with its inbuilt equilibrium-seeking mechanism, bridging the gap between classical optimization-based and modern learning-based registration methods.
评论: 提交版本。被MICCAI 2025接受
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.00582 [eess.IV]
  (或者 arXiv:2507.00582v2 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.00582
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yi Zhang [查看电子邮件]
[v1] 星期二, 2025 年 7 月 1 日 09:03:06 UTC (1,524 KB)
[v2] 星期二, 2025 年 7 月 8 日 09:07:07 UTC (1,524 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
eess
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号