数学 > 数值分析
[提交于 2023年11月1日
]
标题: 基于域分解的通过Schwarz交替方法耦合物理信息神经网络
标题: Domain decomposition-based coupling of physics-informed neural networks via the Schwarz alternating method
摘要: 物理信息神经网络(PINNs)是用于求解和推断非线性偏微分方程(PDEs)的有吸引力的数据驱动工具。与仅在解数据上训练的传统神经网络(NNs)不同,PINN在其损失函数中包含了PDE的残差,并在解域内的配点集上训练以最小化该残差。本文探讨了使用Schwarz交替方法作为耦合PINNs彼此以及与传统数值模型(即通过有限元、有限差分或有限体积方法获得的全阶模型,或FOMs)的方法,该方法是在物理域分解之后进行的。众所周知,当PDE解具有陡峭梯度时,训练PINN可能会很困难。本文研究了域分解和Schwarz交替方法作为加速PINN训练阶段的手段。在此背景下,我们探索了在每个子域PINN中施加狄利克雷边界条件的不同方法:通过损失函数弱施加和/或通过解变换强施加。作为一个数值例子,我们考虑了对流主导(高佩克莱特数)情况下的一维稳态对流扩散方程。我们的结果表明,Schwarz方法的收敛性与被耦合的PINNs中边界条件实现的选择密切相关。令人惊讶的是,Schwarz边界条件的强施加并不总能导致方法更快的收敛。虽然从我们的初步研究中尚不清楚通过Schwarz交替方法进行的PINN-PINN耦合是否能在对流主导的情况下加速PINN收敛,但它揭示了通过进行PINN-FOM耦合,可以显著改善佩克莱特数高达1e6时的PINN训练。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.