Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.04277

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2507.04277 (cs)
[提交于 2025年7月6日 ]

标题: 面向移动设备的最轻量低光图像增强架构

标题: Towards Lightest Low-Light Image Enhancement Architecture for Mobile Devices

Authors:Guangrui Bai, Hailong Yan, Wenhai Liu, Yahui Deng, Erbao Dong
摘要: 实时低光图像增强在移动和嵌入式设备上需要在视觉质量和计算效率之间取得平衡的模型。现有的深度学习方法通常依赖于大型网络和标记数据集,这限制了它们在资源受限平台上的部署。在本文中,我们提出了LiteIE,一种超轻量级的无监督增强框架,消除了对大规模监督的依赖,并在各种条件下具有良好的泛化能力。我们设计了一个与主干无关的特征提取器,仅使用两个卷积层来生成紧凑的图像特征增强张量。此外,我们开发了一个无参数的迭代恢复模块,该模块重新使用提取的特征以逐步恢复早期增强步骤中丢失的细节,而不会引入任何额外的可学习参数。我们进一步提出了一种无监督训练目标,该目标集成了曝光控制、边缘感知平滑性和多尺度颜色一致性损失。在LOL数据集上的实验中,LiteIE实现了19.04 dB的PSNR,比SOTA高出1.4 dB,同时仅使用其参数的0.07%。在Snapdragon 8 Gen 3移动处理器上,LiteIE以30 FPS的速度处理4K图像,仅使用58个参数,使实时部署在边缘设备上成为可能。这些结果确立了LiteIE作为资源受限平台上低光增强的一种高效且实用的解决方案。
摘要: Real-time low-light image enhancement on mobile and embedded devices requires models that balance visual quality and computational efficiency. Existing deep learning methods often rely on large networks and labeled datasets, limiting their deployment on resource-constrained platforms. In this paper, we propose LiteIE, an ultra-lightweight unsupervised enhancement framework that eliminates dependence on large-scale supervision and generalizes well across diverse conditions. We design a backbone-agnostic feature extractor with only two convolutional layers to produce compact image features enhancement tensors. In addition, we develop a parameter-free Iterative Restoration Module, which reuses the extracted features to progressively recover fine details lost in earlier enhancement steps, without introducing any additional learnable parameters. We further propose an unsupervised training objective that integrates exposure control, edge-aware smoothness, and multi-scale color consistency losses. Experiments on the LOL dataset, LiteIE achieves 19.04 dB PSNR, surpassing SOTA by 1.4 dB while using only 0.07\% of its parameters. On a Snapdragon 8 Gen 3 mobile processor, LiteIE runs at 30 FPS for 4K images with just 58 parameters, enabling real-time deployment on edge devices. These results establish LiteIE as an efficient and practical solution for low-light enhancement on resource-limited platforms.
评论: 提交至ESWA
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.04277 [cs.CV]
  (或者 arXiv:2507.04277v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.04277
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Guangrui Bai [查看电子邮件]
[v1] 星期日, 2025 年 7 月 6 日 07:36:47 UTC (14,453 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号