Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2507.10804

帮助 | 高级搜索

数学 > 数值分析

arXiv:2507.10804 (math)
[提交于 2025年7月14日 ]

标题: 用高效高阶Hessian近似加速地震反演和不确定性量化

标题: Accelerating seismic inversion and uncertainty quantification with efficient high-rank Hessian approximations

Authors:Mathew Hu, Nick Alger, Rami Nammour, Omar Ghattas
摘要: 高效的大秩Hessian近似可以加速地震全波形反演(FWI)和不确定性量化(UQ)。 在FWI中,Hessian逆的近似可以用作牛顿型或拟牛顿算法的预条件器,降低计算成本并提高深层地下区域的恢复效果。 在贝叶斯UQ中,Hessian近似能够构建捕捉后验方向缩放的马尔可夫链蒙特卡洛(MCMC)提议,提高MCMC的效率。 对于大规模问题,计算精确的Hessian是不可行的,因为Hessian只能通过矩阵-向量乘积获得,而每次矩阵-向量乘积都需要昂贵的波动方程求解。 此外,Hessian是高秩的,这意味着通常用于大规模反问题的低秩方法效率低下。 我们适应了两种现有的高秩Hessian近似方法——点扩散函数方法和伪微分算子探测方法。 基于这两种方法之间观察到的对偶性,我们开发了一种新方法,统一了它们的互补优势。 我们在一个合成二次模型和Marmousi模型上验证了这些方法。 数值实验表明,这些高秩Hessian近似显著降低了FWI中的计算成本。 在UQ中,使用无Hessian近似或低秩近似的MCMC样本缓慢探索后验分布,在数万次迭代后提供很少有意义的统计信息,并低估方差。 同时,有效样本大小被高估,提供了虚假的置信度。 相比之下,使用高秩Hessian近似的MCMC样本能够提供关于后验的有意义的统计信息,并更准确地评估后验方差。
摘要: Efficient high-rank approximations of the Hessian can accelerate seismic full waveform inversion (FWI) and uncertainty quantification (UQ). In FWI, approximations of the inverse of the Hessian may be used as preconditioners for Newton-type or quasi-Newton algorithms, reducing computational costs and improving recovery in deeper subsurface regions. In Bayesian UQ, Hessian approximations enable the construction of Markov chain Monte Carlo (MCMC) proposals that capture the directional scalings of the posterior, enhancing the efficiency of MCMC. Computing the exact Hessian is intractable for large-scale problems because the Hessian is accessible only through matrix-vector products, and performing each matrix-vector product requires costly solution of wave equations. Moreover, the Hessian is high-rank, which means that low-rank methods, often employed in large-scale inverse problems, are inefficient. We adapt two existing high-rank Hessian approximations -- the point spread function method and the pseudo-differential operator probing method. Building on an observed duality between these approaches, we develop a novel method that unifies their complementary strengths. We validate these methods on a synthetic quadratic model and on the Marmousi model. Numerical experiments show that these high-rank Hessian approximations substantially reduce the computational costs in FWI. In UQ, MCMC samples computed using no Hessian approximation or a low-rank approximation explore the posterior slowly, providing little meaningful statistical information after tens of thousands of iterations and underestimating the variance. At the same time, the effective sample size is overestimated, providing false confidence. In contrast, MCMC samples generated using the high-rank Hessian approximations provide meaningful statistical information about the posterior and more accurately assess the posterior variance.
主题: 数值分析 (math.NA)
引用方式: arXiv:2507.10804 [math.NA]
  (或者 arXiv:2507.10804v1 [math.NA] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.10804
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Mathew Hu [查看电子邮件]
[v1] 星期一, 2025 年 7 月 14 日 20:58:38 UTC (2,536 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.NA
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.NA
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号