电气工程与系统科学 > 图像与视频处理
[提交于 2025年6月30日
(v1)
,最后修订 2025年7月5日 (此版本, v2)]
标题: AFUNet:通过深度展开范式进行HDR重建的交叉迭代对齐-融合协同
标题: AFUNet: Cross-Iterative Alignment-Fusion Synergy for HDR Reconstruction via Deep Unfolding Paradigm
摘要: 现有基于学习的方法能够从多曝光的低动态范围输入中有效重建高动态范围图像,扩展动态范围并提高细节,但它们更多依赖于经验设计而非理论基础,这可能会影响其可靠性。 为解决这些限制,我们提出了交叉迭代对齐与融合深度展开网络(AFUNet),其中高动态范围重建被系统地解耦为两个交错的子任务——对齐和融合——通过交替优化实现,从而在两个子任务之间产生协同作用,以提高整体性能。 我们的方法从最大后验(MAP)估计的角度对多曝光高动态范围重建进行建模,显式地结合了低动态范围图像之间的空间对应先验,并通过联合约束自然地连接对齐和融合子问题。 基于数学基础,我们重新设想了传统的迭代优化过程——将传统求解过程转化为一个端到端可训练的AFUNet,其中包含精心设计的模块,逐步工作。 具体而言,AFUNet的每次迭代都包含一个对齐-融合模块(AFM),该模块在用于对齐的空间对齐模块(SAM)和用于自适应特征融合的通道融合模块(CFM)之间交替进行,逐步弥合不对齐内容和曝光差异。 大量的定性和定量评估证明了AFUNet的优越性能,始终超越最先进的方法。 我们的代码可在以下网址获取:https://github.com/eezkni/AFUNet
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.