Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.01460

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.01460 (eess)
[提交于 2024年12月31日 (v1) ,最后修订 2025年1月7日 (此版本, v2)]

标题: GDSR:通过小波损失的双分支网络进行全局细节集成的遥感图像超分辨率

标题: GDSR: Global-Detail Integration through Dual-Branch Network with Wavelet Losses for Remote Sensing Image Super-Resolution

Authors:Qiwei Zhu, Kai Li, Guojing Zhang, Xiaoying Wang, Jianqiang Huang, Xilai Li
摘要: 近年来,包括卷积神经网络、Transformer和状态空间模型在内的深度神经网络在遥感图像(RSI)超分辨率(SR)方面取得了显著进展。然而,现有的SR方法通常忽略了全局和局部依赖之间的互补关系。这些方法要么专注于捕捉局部信息,要么优先考虑全局信息,导致模型无法同时有效地捕捉全局和局部特征。此外,当应用于大规模RSI时,它们的计算成本变得难以承受。为了解决这些挑战,我们引入了Receptance加权键值(RWKV)在RSI-SR中的新应用,该方法以线性复杂度捕捉长距离依赖关系。为了同时建模全局和局部特征,我们提出了全局-细节双分支结构GDSR,通过并行化RWKV和卷积操作来进行SR重建,以处理大规模RSI。此外,我们在两个分支之间引入了全局-细节重建模块(GDRM),以弥补它们的互补作用。此外,我们提出了小波损失,这是一种能有效捕捉图像中高频细节信息的损失函数,从而提高SR的视觉质量,特别是在细节重建方面。在多个基准测试中进行了大量实验,包括AID、AID_CDM、RSSRD-QH和RSSRD-QH_CDM,结果表明,GSDR在PSNR上平均比最先进的基于Transformer的方法HAT高出0.05 dB,同时仅使用其63%的参数和51%的FLOPs,推理速度提高了2.9倍。此外,小波损失在各种架构中表现出优异的泛化能力,为RSI-SR增强提供了一个新的视角。
摘要: In recent years, deep neural networks, including Convolutional Neural Networks, Transformers, and State Space Models, have achieved significant progress in Remote Sensing Image (RSI) Super-Resolution (SR). However, existing SR methods typically overlook the complementary relationship between global and local dependencies. These methods either focus on capturing local information or prioritize global information, which results in models that are unable to effectively capture both global and local features simultaneously. Moreover, their computational cost becomes prohibitive when applied to large-scale RSIs. To address these challenges, we introduce the novel application of Receptance Weighted Key Value (RWKV) to RSI-SR, which captures long-range dependencies with linear complexity. To simultaneously model global and local features, we propose the Global-Detail dual-branch structure, GDSR, which performs SR reconstruction by paralleling RWKV and convolutional operations to handle large-scale RSIs. Furthermore, we introduce the Global-Detail Reconstruction Module (GDRM) as an intermediary between the two branches to bridge their complementary roles. In addition, we propose Wavelet Loss, a loss function that effectively captures high-frequency detail information in images, thereby enhancing the visual quality of SR, particularly in terms of detail reconstruction. Extensive experiments on several benchmarks, including AID, AID_CDM, RSSRD-QH, and RSSRD-QH_CDM, demonstrate that GSDR outperforms the state-of-the-art Transformer-based method HAT by an average of 0.05 dB in PSNR, while using only 63% of its parameters and 51% of its FLOPs, achieving an inference speed 2.9 times faster. Furthermore, the Wavelet Loss shows excellent generalization across various architectures, providing a novel perspective for RSI-SR enhancement.
评论: 实验是使用私有数据集进行的,这些数据集不完整,因为没有包含所有必要的版权。此外,结论还需要进一步探索,因为这项工作仍在进行中。
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG)
引用方式: arXiv:2501.01460 [eess.IV]
  (或者 arXiv:2501.01460v2 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.01460
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Qiwei Zhu [查看电子邮件]
[v1] 星期二, 2024 年 12 月 31 日 10:43:19 UTC (2,865 KB)
[v2] 星期二, 2025 年 1 月 7 日 14:19:35 UTC (1 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs.CV
cs.LG
eess
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号