Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2507.01588

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2507.01588 (eess)
[提交于 2025年7月2日 ]

标题: 使用重叠码本增强多曝光高动态范围成像的表示学习

标题: Enhancing Multi-Exposure High Dynamic Range Imaging with Overlapped Codebook for Improved Representation Learning

Authors:Keuntek Lee, Jaehyun Park, Nam Ik Cho
摘要: 高动态范围(HDR)成像技术旨在从低动态范围(LDR)输入创建逼真的HDR图像。 具体来说,多曝光HDR成像使用同一场景的多个LDR帧来提高重建性能。 然而,帧之间通常存在运动差异,每次拍摄的不同曝光设置可能导致饱和区域。 在本工作中,我们首先提出了一种重叠代码本(OLC)方案,该方案可以通过在共享代码本结构中建模共同的曝光范围过程,提高VQGAN框架学习隐式HDR表示的能力。 此外,我们开发了一种新的HDR网络,该网络利用从预训练的VQ网络和OLC获得的HDR表示。 这使我们能够补偿饱和区域并提高整体视觉质量。 我们在各种数据集上对我们的方法进行了广泛测试,并证明了它在定性和定量方面都优于之前的方法。
摘要: High dynamic range (HDR) imaging technique aims to create realistic HDR images from low dynamic range (LDR) inputs. Specifically, Multi-exposure HDR imaging uses multiple LDR frames taken from the same scene to improve reconstruction performance. However, there are often discrepancies in motion among the frames, and different exposure settings for each capture can lead to saturated regions. In this work, we first propose an Overlapped codebook (OLC) scheme, which can improve the capability of the VQGAN framework for learning implicit HDR representations by modeling the common exposure bracket process in the shared codebook structure. Further, we develop a new HDR network that utilizes HDR representations obtained from a pre-trained VQ network and OLC. This allows us to compensate for saturated regions and enhance overall visual quality. We have tested our approach extensively on various datasets and have demonstrated that it outperforms previous methods both qualitatively and quantitatively
评论: 被国际模式识别会议接收。Springer, Cham, 2025 (ICPR 2024)
主题: 图像与视频处理 (eess.IV)
引用方式: arXiv:2507.01588 [eess.IV]
  (或者 arXiv:2507.01588v1 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.01588
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.1007/978-3-031-78125-4_19
链接到相关资源的 DOI

提交历史

来自: Keuntek Lee [查看电子邮件]
[v1] 星期三, 2025 年 7 月 2 日 10:58:18 UTC (4,645 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess.IV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号