Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2412.05719

帮助 | 高级搜索

数学 > 数值分析

arXiv:2412.05719 (math)
[提交于 2024年12月7日 ]

标题: 有限元神经网络插值 第一部分:求解偏微分方程的可解释和自适应离散化

标题: Finite Element Neural Network Interpolation. Part I: Interpretable and Adaptive Discretization for Solving PDEs

Authors:Kateřina Škardová, Alexandre Daby-Seesaram, Martin Genet
摘要: 我们提出了有限元神经网络插值(FENNI)框架,这是一种稀疏神经网络架构,扩展了之前在分层深度学习神经网络(HiDeNN)中引入的嵌入式有限元神经网络(EFENN)的工作。 由于其基于网格的结构,EFENN所需的可训练参数显著少于全连接神经网络,且每个权重和偏置都有明确的解释。 我们的FENNI框架在EFENN框架内对HiDeNN方法进行了改进。 首先,我们提出了一种基于参考单元的架构,其中形状函数定义在参考单元上,从而实现了插值函数的可变性,并能够直接使用高斯求积规则来评估损失函数。 其次,我们提出了一种基于框架可解释性的实用多网格训练策略。 第三,HiDeNN的组合rh自适应从1D扩展到2D,并引入了一种基于雅可比矩阵的节点添加准则,结合了h自适应和r自适应。 从深度学习的角度来看,通过rh自适应和多网格方法实现的自适应网格行为对应于迁移学习,使FENNI能够在训练过程中动态优化网络架构。 该框架的能力在1D和2D测试案例中得到验证,其准确性与计算成本与解析解和经典有限元法求解器进行比较。 在这些案例中,多网格训练策略显著提高了训练阶段的效率和鲁棒性。 最后,我们在EFENN框架内引入了一种变分损失,表明其性能与基于能量的损失相当,并优于基于残差的损失。 在第二部分中,该框架被扩展到参数空间上的代理建模。
摘要: We present the Finite Element Neural Network Interpolation (FENNI) framework, a sparse neural network architecture extending previous work on Embedded Finite Element Neural Networks (EFENN) introduced with the Hierarchical Deep-learning Neural Networks (HiDeNN). Due to their mesh-based structure, EFENN requires significantly fewer trainable parameters than fully connected neural networks, with individual weights and biases having a clear interpretation. Our FENNI framework, within the EFENN framework, brings improvements to the HiDeNN approach. First, we propose a reference element-based architecture where shape functions are defined on a reference element, enabling variability in interpolation functions and straightforward use of Gaussian quadrature rules for evaluating the loss function. Second, we propose a pragmatic multigrid training strategy based on the framework's interpretability. Third, HiDeNN's combined rh-adaptivity is extended from 1D to 2D, with a new Jacobian-based criterion for adding nodes combining h- and r-adaptivity. From a deep learning perspective, adaptive mesh behavior through rh-adaptivity and the multigrid approach correspond to transfer learning, enabling FENNI to optimize the network's architecture dynamically during training. The framework's capabilities are demonstrated on 1D and 2D test cases, where its accuracy and computational cost are compared against an analytical solution and a classical FEM solver. On these cases, the multigrid training strategy drastically improves the training stage's efficiency and robustness. Finally, we introduce a variational loss within the EFENN framework, showing that it performs as well as energy-based losses and outperforms residual-based losses. This framework is extended to surrogate modeling over the parametric space in Part II.
评论: 25页,15图
主题: 数值分析 (math.NA) ; 机器学习 (cs.LG); 计算物理 (physics.comp-ph)
引用方式: arXiv:2412.05719 [math.NA]
  (或者 arXiv:2412.05719v1 [math.NA] 对于此版本)
  https://doi.org/10.48550/arXiv.2412.05719
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Alexandre Daby-Seesaram PhD [查看电子邮件]
[v1] 星期六, 2024 年 12 月 7 日 18:31:17 UTC (16,289 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.NA
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-12
切换浏览方式为:
cs
cs.LG
cs.NA
math
physics
physics.comp-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号