Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.11562

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2507.11562 (cs)
[提交于 2025年7月14日 ]

标题: 专家操作生成对抗网络:面向真实颜色水下图像修复

标题: Expert Operational GANS: Towards Real-Color Underwater Image Restoration

Authors:Ozer Can Devecioglu, Serkan Kiranyaz, Mehmet Yamac, Moncef Gabbouj
摘要: 从复杂光传播、散射和深度相关衰减中产生的广泛变形伪影使得水下图像恢复仍然是一个具有挑战性的问题。 与其他单个深度回归网络一样,传统的基于GAN的恢复方法在这一异构领域中表现不佳,因为单一的生成器网络通常不足以捕捉全部范围的视觉退化。 为了克服这一限制,我们提出了xOp-GAN,一种具有多个专家生成器网络的新GAN模型,每个生成器仅在特定图像质量的子集上进行训练。 因此,每个生成器可以学习在其特定质量范围内最大化其恢复性能。 一旦xOp-GAN训练完成,每个生成器都可以恢复输入图像,然后可以根据其感知置信度分数由判别器选择最佳恢复图像。 结果表明,xOP-GAN是第一个在回归任务推理过程中使用判别器的多生成器GAN模型。 在基准大规模水下图像(LSUI)数据集上的实验结果表明,xOp-GAN实现的PSNR水平高达25.16 dB,即使在复杂度降低的情况下,也大大超越了所有单回归器模型。
摘要: The wide range of deformation artifacts that arise from complex light propagation, scattering, and depth-dependent attenuation makes the underwater image restoration to remain a challenging problem. Like other single deep regressor networks, conventional GAN-based restoration methods struggle to perform well across this heterogeneous domain, since a single generator network is typically insufficient to capture the full range of visual degradations. In order to overcome this limitation, we propose xOp-GAN, a novel GAN model with several expert generator networks, each trained solely on a particular subset with a certain image quality. Thus, each generator can learn to maximize its restoration performance for a particular quality range. Once a xOp-GAN is trained, each generator can restore the input image and the best restored image can then be selected by the discriminator based on its perceptual confidence score. As a result, xOP-GAN is the first GAN model with multiple generators where the discriminator is being used during the inference of the regression task. Experimental results on benchmark Large Scale Underwater Image (LSUI) dataset demonstrates that xOp-GAN achieves PSNR levels up to 25.16 dB, surpassing all single-regressor models by a large margin even, with reduced complexity.
评论: 6页
主题: 计算机视觉与模式识别 (cs.CV) ; 人工智能 (cs.AI); 图像与视频处理 (eess.IV)
引用方式: arXiv:2507.11562 [cs.CV]
  (或者 arXiv:2507.11562v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.11562
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Ozer Can Devecioglu [查看电子邮件]
[v1] 星期一, 2025 年 7 月 14 日 14:34:45 UTC (829 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
eess
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.CV
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号