Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.00308

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2508.00308 (cs)
[提交于 2025年8月1日 ]

标题: 探索傅里叶先验和事件协作用于低光图像增强

标题: Exploring Fourier Prior and Event Collaboration for Low-Light Image Enhancement

Authors:Chunyan She, Fujun Han, Chengyu Fang, Shukai Duan, Lidan Wang
摘要: 事件相机因其高动态范围和低延迟,为低光图像增强提供了性能优势。 与基于帧的相机不同,它以极高的时间分辨率记录强度变化,捕捉到足够的结构信息。 目前,现有的基于事件的方法直接将帧和事件输入到一个模型中,而没有充分利用模态特有的优势,这限制了它们的性能。 因此,通过分析每种传感模态的作用,增强流程被解耦为两个阶段:可见性恢复和结构细化。 在第一阶段,我们设计了一个具有幅度-相位纠缠的可见性恢复网络,通过重新思考傅里叶空间中幅度和相位分量之间的关系。 在第二阶段,提出了一种具有动态对齐的融合策略,以缓解两种传感模态之间时间分辨率差异引起的时空不匹配,旨在细化由可见性恢复网络增强的图像的结构信息。 此外,我们利用空频插值来模拟具有多种光照、噪声和伪影退化的负样本,从而开发了一种对比损失,鼓励模型学习区分性表示。 实验表明,所提出的方法优于最先进模型。
摘要: The event camera, benefiting from its high dynamic range and low latency, provides performance gain for low-light image enhancement. Unlike frame-based cameras, it records intensity changes with extremely high temporal resolution, capturing sufficient structure information. Currently, existing event-based methods feed a frame and events directly into a single model without fully exploiting modality-specific advantages, which limits their performance. Therefore, by analyzing the role of each sensing modality, the enhancement pipeline is decoupled into two stages: visibility restoration and structure refinement. In the first stage, we design a visibility restoration network with amplitude-phase entanglement by rethinking the relationship between amplitude and phase components in Fourier space. In the second stage, a fusion strategy with dynamic alignment is proposed to mitigate the spatial mismatch caused by the temporal resolution discrepancy between two sensing modalities, aiming to refine the structure information of the image enhanced by the visibility restoration network. In addition, we utilize spatial-frequency interpolation to simulate negative samples with diverse illumination, noise and artifact degradations, thereby developing a contrastive loss that encourages the model to learn discriminative representations. Experiments demonstrate that the proposed method outperforms state-of-the-art models.
评论: 被ACM MM 2025接受
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2508.00308 [cs.CV]
  (或者 arXiv:2508.00308v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.00308
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Chunyan She [查看电子邮件]
[v1] 星期五, 2025 年 8 月 1 日 04:25:00 UTC (2,021 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号