Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2501.01460

帮助 | 高级搜索

电气工程与系统科学 > 图像与视频处理

arXiv:2501.01460 (eess)
[提交于 2024年12月31日 (v1) ,最后修订 2025年7月28日 (此版本, v3)]

标题: GDSR:通过小波损失的双分支网络进行全局细节集成的遥感图像超分辨率

标题: GDSR: Global-Detail Integration through Dual-Branch Network with Wavelet Losses for Remote Sensing Image Super-Resolution

Authors:Qiwei Zhu, Kai Li, Guojing Zhang, Xiaoying Wang, Jianqiang Huang, Xilai Li
摘要: 近年来,深度神经网络,包括卷积神经网络、Transformer 和状态空间模型,在遥感图像(RSI)超分辨率(SR)方面取得了显著进展。然而,现有的 SR 方法通常忽略了全局和局部依赖之间的互补关系。这些方法要么专注于捕捉局部信息,要么优先考虑全局信息,这导致模型无法同时有效地捕捉全局和局部特征。此外,当应用于大规模 RSI 时,它们的计算成本变得难以承受。为了解决这些挑战,我们引入了接收权重键值(RWKV)在 RSI-SR 中的新应用,该方法以线性复杂度捕捉长距离依赖关系。为了同时建模全局和局部特征,我们提出了全局-细节双分支结构 GDSR,通过并行 RWKV 和卷积操作来处理大规模 RSI 实现 SR。此外,我们在两个分支之间引入了全局-细节重建模块(GDRM),以弥补它们的互补作用。此外,我们提出了双组多尺度小波损失,通过双组子带策略和跨分辨率频率对齐的小波域约束机制,以提高 RSI-SR 的重建保真度。在 AID、UCMerced 和 RSSRD-QH 等多个基准数据集上,使用两种退化方法进行的大量实验表明,GSDR 在 PSNR 上平均比最先进的基于 Transformer 的方法 HAT 提高了 0.09 dB,同时仅使用其 63% 的参数和 51% 的 FLOPs,推理速度提高了 3.2 倍。
摘要: In recent years, deep neural networks, including Convolutional Neural Networks, Transformers, and State Space Models, have achieved significant progress in Remote Sensing Image (RSI) Super-Resolution (SR). However, existing SR methods typically overlook the complementary relationship between global and local dependencies. These methods either focus on capturing local information or prioritize global information, which results in models that are unable to effectively capture both global and local features simultaneously. Moreover, their computational cost becomes prohibitive when applied to large-scale RSIs. To address these challenges, we introduce the novel application of Receptance Weighted Key Value (RWKV) to RSI-SR, which captures long-range dependencies with linear complexity. To simultaneously model global and local features, we propose the Global-Detail dual-branch structure, GDSR, which performs SR by paralleling RWKV and convolutional operations to handle large-scale RSIs. Furthermore, we introduce the Global-Detail Reconstruction Module (GDRM) as an intermediary between the two branches to bridge their complementary roles. In addition, we propose the Dual-Group Multi-Scale Wavelet Loss, a wavelet-domain constraint mechanism via dual-group subband strategy and cross-resolution frequency alignment for enhanced reconstruction fidelity in RSI-SR. Extensive experiments under two degradation methods on several benchmarks, including AID, UCMerced, and RSSRD-QH, demonstrate that GSDR outperforms the state-of-the-art Transformer-based method HAT by an average of 0.09 dB in PSNR, while using only 63% of its parameters and 51% of its FLOPs, achieving an inference speed 3.2 times faster.
评论: GDSR:通过小波损失的双分支网络进行全局-细节整合的遥感图像超分辨率
主题: 图像与视频处理 (eess.IV) ; 计算机视觉与模式识别 (cs.CV); 机器学习 (cs.LG)
引用方式: arXiv:2501.01460 [eess.IV]
  (或者 arXiv:2501.01460v3 [eess.IV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.01460
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Qiwei Zhu [查看电子邮件]
[v1] 星期二, 2024 年 12 月 31 日 10:43:19 UTC (2,865 KB)
[v2] 星期二, 2025 年 1 月 7 日 14:19:35 UTC (1 KB)
[v3] 星期一, 2025 年 7 月 28 日 11:12:59 UTC (2,784 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
eess
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.CV
cs.LG
eess.IV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号