数学 > 数值分析
[提交于 2024年12月7日
]
标题: 有限元神经网络插值 第一部分:求解偏微分方程的可解释和自适应离散化
标题: Finite Element Neural Network Interpolation. Part I: Interpretable and Adaptive Discretization for Solving PDEs
摘要: 我们提出了有限元神经网络插值(FENNI)框架,这是一种稀疏神经网络架构,扩展了之前在分层深度学习神经网络(HiDeNN)中引入的嵌入式有限元神经网络(EFENN)的工作。 由于其基于网格的结构,EFENN所需的可训练参数显著少于全连接神经网络,且每个权重和偏置都有明确的解释。 我们的FENNI框架在EFENN框架内对HiDeNN方法进行了改进。 首先,我们提出了一种基于参考单元的架构,其中形状函数定义在参考单元上,从而实现了插值函数的可变性,并能够直接使用高斯求积规则来评估损失函数。 其次,我们提出了一种基于框架可解释性的实用多网格训练策略。 第三,HiDeNN的组合rh自适应从1D扩展到2D,并引入了一种基于雅可比矩阵的节点添加准则,结合了h自适应和r自适应。 从深度学习的角度来看,通过rh自适应和多网格方法实现的自适应网格行为对应于迁移学习,使FENNI能够在训练过程中动态优化网络架构。 该框架的能力在1D和2D测试案例中得到验证,其准确性与计算成本与解析解和经典有限元法求解器进行比较。 在这些案例中,多网格训练策略显著提高了训练阶段的效率和鲁棒性。 最后,我们在EFENN框架内引入了一种变分损失,表明其性能与基于能量的损失相当,并优于基于残差的损失。 在第二部分中,该框架被扩展到参数空间上的代理建模。
当前浏览上下文:
math.NA
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.