Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2511.04362

帮助 | 高级搜索

电气工程与系统科学 > 信号处理

arXiv:2511.04362 (eess)
[提交于 2025年11月6日 ]

标题: 基于深度学习的北西班牙L波段干涉SAR时间序列高分辨率森林制图

标题: High-Resolution Forest Mapping from L-Band Interferometric SAR Time Series using Deep Learning over Northern Spain

Authors:Chiara Telli, Oleg Antropov, Anne Lönnqvist, Marco Lavalle
摘要: 在本研究中,我们考察了使用L波段干涉时序数据集和深度学习建模在高分辨率森林制图中的潜力。 我们的SAR数据由九张ALOS-2 PALSAR-2双极化SAR图像组成,这些图像在西班牙北部阿斯图里亚斯研究区域的近零空间基线上获取。 参考数据通过机载激光扫描收集。 我们评估了UNet家族中几种候选深度学习模型的性能,这些模型结合了不同的输入极化和干涉特征。 除了基本的Vanilla UNet外,还使用了带有挤压-激励块(SeU-Net)的注意力增强UNet模型以及具有嵌套结构和跳跃路径的高级UNet模型。 研究的特征包括双极化干涉观测值,同时还加入了基于模型推导出的度量。 结果表明,与仅使用后向散射强度相比,添加基于模型的反演InSAR特征或InSAR相干层可以提高检索精度。 使用注意力机制和嵌套连接融合提供了比使用Vanilla UNet或传统机器学习方法更好的预测结果。 当仅使用强度数据时,在20米分辨率下森林高度的检索精度范围为3.1-3.8米(R2 = 0.45--0.55),当同时包含强度和干涉相干特征时,精度提高到低于2.8米。 在40米和60米分辨率下,检索性能进一步提高,这主要是由于强度和干涉层中的信噪比更高。 当在60米分辨率下使用强度时,最佳RMSE为2.2米,而当使用所有合适的输入特征时,达到的误差为1.95米。我们建议这种混合方法也适用于L波段SAR检索,并且适合NISAR和未来的ROSE-L任务。
摘要: In this study, we examine the potential of high-resolution forest mapping using L-band interferometric time series datasets and deep learning modeling. Our SAR data are represented by a time series of nine ALOS-2 PALSAR-2 dual-pol SAR images acquired at near-zero spatial baseline over a study site in Asturias, Northern Spain. Reference data are collected using airborne laser scanning. We examine the performance of several candidate deep learning models from UNet-family with various combinations of input polarimetric and interferometric features. In addition to basic Vanilla UNet, attention reinforced UNet model with squeeze-excitation blocks (SeU-Net) and advanced UNet model with nested structure and skip pathways are used. Studied features include dual pol interferometric observables additionally incorporating model-based derived measures. Results show that adding model-based inverted InSAR features or InSAR coherence layers improves retrieval accuracy compared to using backscatter intensity only. Use of attention mechanisms and nested connection fusion provides better predictions than using Vanilla UNet or traditional machine learning methods. Forest height retrieval accuracies range between 3.1-3.8 m (R2 = 0.45--0.55) at 20 m resolution when only intensity data are used, and improve to less than 2.8 m when both intensity and interferometric coherence features are included. At 40 m and 60 m resolution, retrieval performance further improves, primarily due to higher SNR in both the intensity and interferometric layers. When using intensity at 60 m resolution, best achieved RMSE is 2.2 m, while when using all suitable input features the achieved error is 1.95 m. We recommend this hybrid approach for L-band SAR retrievals also suitable for NISAR and future ROSE-L missions.
主题: 信号处理 (eess.SP)
引用方式: arXiv:2511.04362 [eess.SP]
  (或者 arXiv:2511.04362v1 [eess.SP] 对于此版本)
  https://doi.org/10.48550/arXiv.2511.04362
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Chiara Telli [查看电子邮件]
[v1] 星期四, 2025 年 11 月 6 日 13:45:32 UTC (11,141 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
eess.SP
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-11
切换浏览方式为:
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号