Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2506.00471

帮助 | 高级搜索

物理学 > 地球物理

arXiv:2506.00471 (physics)
[提交于 2025年5月31日 ]

标题: DiffPINN:用于加速地震波场表示的生成扩散初始化物理信息神经网络

标题: DiffPINN: Generative diffusion-initialized physics-informed neural networks for accelerating seismic wavefield representation

Authors:Shijun Cheng, Tariq Alkhalifah
摘要: 物理信息神经网络(PINNs)为地震波场建模提供了一个强大的框架,但它们通常需要耗费大量时间重新训练才能应用于不同的速度模型。 此外,由于波场解的复杂性,它们的训练可能会因收敛缓慢而受到影响。 为了解决这些挑战,我们引入了一种基于潜在扩散的策略,用于快速有效的PINNs初始化。 首先,我们训练多个PINNs来表示不同速度模型的频域散射波场,然后将每个训练好的网络参数展平为一维向量,创建一个全面的参数数据集。 接下来,我们使用自动编码器学习这些参数向量的潜在表示,捕捉不同PINNs参数中的关键模式。 然后,我们训练一个条件扩散模型来存储这些潜在向量的分布,相应的速度模型作为条件。 一旦训练完成,这个扩散模型可以生成对应于新速度模型的潜在向量,随后由自动编码器解码为完整的PINNs参数。 实验结果表明,我们的方法显著加速了训练,并在分布内和分布外的速度场景中保持了高精度。
摘要: Physics-informed neural networks (PINNs) offer a powerful framework for seismic wavefield modeling, yet they typically require time-consuming retraining when applied to different velocity models. Moreover, their training can suffer from slow convergence due to the complexity of of the wavefield solution. To address these challenges, we introduce a latent diffusion-based strategy for rapid and effective PINN initialization. First, we train multiple PINNs to represent frequency-domain scattered wavefields for various velocity models, then flatten each trained network's parameters into a one-dimensional vector, creating a comprehensive parameter dataset. Next, we employ an autoencoder to learn latent representations of these parameter vectors, capturing essential patterns across diverse PINN's parameters. We then train a conditional diffusion model to store the distribution of these latent vectors, with the corresponding velocity models serving as conditions. Once trained, this diffusion model can generate latent vectors corresponding to new velocity models, which are subsequently decoded by the autoencoder into complete PINN parameters. Experimental results indicate that our method significantly accelerates training and maintains high accuracy across in-distribution and out-of-distribution velocity scenarios.
主题: 地球物理 (physics.geo-ph) ; 机器学习 (cs.LG); 计算物理 (physics.comp-ph)
引用方式: arXiv:2506.00471 [physics.geo-ph]
  (或者 arXiv:2506.00471v1 [physics.geo-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.00471
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Shijun Cheng [查看电子邮件]
[v1] 星期六, 2025 年 5 月 31 日 08:41:06 UTC (12,634 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
physics.comp-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.LG
physics
physics.geo-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号