Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2504.11999

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2504.11999 (cs)
[提交于 2025年4月16日 ]

标题: 基于物理启发表示学习的复值SAR基础模型

标题: A Complex-valued SAR Foundation Model Based on Physically Inspired Representation Learning

Authors:Mengyu Wang, Hanbo Bi, Yingchao Feng, Linlin Xin, Shuo Gong, Tianqi Wang, Zhiyuan Yan, Peijin Wang, Wenhui Diao, Xian Sun
摘要: 视觉基础模型在遥感领域已被广泛研究,因为它们在各种下游任务中表现出优越的泛化能力。 合成孔径雷达(SAR)提供了全天候成像能力,为地球观测提供了显著优势。 然而,建立用于SAR图像解释的基础模型不可避免地会遇到信息利用不足和可解释性差的挑战。 在本文中,我们提出了一种基于复数SAR数据的遥感基础模型,该模型模拟极化分解过程进行预训练,即通过散射基和散射系数的加权组合来表征像素散射强度,从而赋予基础模型物理可解释性。 具体而言,我们构建了一系列散射查询,每个查询代表一个独立且有意义的散射基,这些查询与散射查询解码器中的SAR特征交互,并输出相应的散射系数。 为了引导预训练过程,构建了极化分解损失和功率自监督损失。前者将预测的系数与Yamaguchi系数对齐,后者则从预测的系数中重建功率并将其与输入图像的功率进行比较。 我们的基础模型在六个典型的下游任务上进行了验证,取得了最先进的结果。 值得注意的是,该基础模型可以提取稳定的特征表示,并在数据稀缺的情况下表现出强大的泛化能力。
摘要: Vision foundation models in remote sensing have been extensively studied due to their superior generalization on various downstream tasks. Synthetic Aperture Radar (SAR) offers all-day, all-weather imaging capabilities, providing significant advantages for Earth observation. However, establishing a foundation model for SAR image interpretation inevitably encounters the challenges of insufficient information utilization and poor interpretability. In this paper, we propose a remote sensing foundation model based on complex-valued SAR data, which simulates the polarimetric decomposition process for pre-training, i.e., characterizing pixel scattering intensity as a weighted combination of scattering bases and scattering coefficients, thereby endowing the foundation model with physical interpretability. Specifically, we construct a series of scattering queries, each representing an independent and meaningful scattering basis, which interact with SAR features in the scattering query decoder and output the corresponding scattering coefficient. To guide the pre-training process, polarimetric decomposition loss and power self-supervision loss are constructed. The former aligns the predicted coefficients with Yamaguchi coefficients, while the latter reconstructs power from the predicted coefficients and compares it to the input image's power. The performance of our foundation model is validated on six typical downstream tasks, achieving state-of-the-art results. Notably, the foundation model can extract stable feature representations and exhibits strong generalization, even in data-scarce conditions.
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2504.11999 [cs.CV]
  (或者 arXiv:2504.11999v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.11999
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Mengyu Wang [查看电子邮件]
[v1] 星期三, 2025 年 4 月 16 日 11:51:34 UTC (18,597 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号