Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.03860

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.03860 (cs)
[提交于 2025年7月5日 ]

标题: 泰勒模型物理信息神经网络(PINNs)用于常微分方程

标题: Taylor-Model Physics-Informed Neural Networks (PINNs) for Ordinary Differential Equations

Authors:Chandra Kanth Nagesh, Sriram Sankaranarayanan, Ramneet Kaur, Tuhin Sahai, Susmit Jha
摘要: 我们研究了在参数不确定性下学习常微分方程(ODE)的神经网络模型的问题。这种神经网络模型能够捕捉给定一组参数、初始条件和时间范围内的ODE解。物理信息神经网络(PINNs)作为一种有前途的方法被提出,用于以系统的方式结合数据驱动的深度学习与符号物理模型来学习此类模型。然而,当PINNs用于求解由变化的参数和初始条件表征的整个初始值问题家族时,其准确性会下降。在本文中,我们结合符号微分和泰勒级数方法,提出了一类更高阶的模型来捕捉ODE的解。这些模型结合了神经网络和符号项:它们使用高阶李导数和通过符号获得的泰勒级数展开式,余项则建模为神经网络。关键见解是,余项本身可以建模为一个一阶ODE的解。我们展示了如何使用这些高阶PINNs通过有趣但具有挑战性的ODE基准来提高准确性。我们还表明,所得到的模型在控制作为ODE建模的不确定物理系统等情况下非常有用。
摘要: We study the problem of learning neural network models for Ordinary Differential Equations (ODEs) with parametric uncertainties. Such neural network models capture the solution to the ODE over a given set of parameters, initial conditions, and range of times. Physics-Informed Neural Networks (PINNs) have emerged as a promising approach for learning such models that combine data-driven deep learning with symbolic physics models in a principled manner. However, the accuracy of PINNs degrade when they are used to solve an entire family of initial value problems characterized by varying parameters and initial conditions. In this paper, we combine symbolic differentiation and Taylor series methods to propose a class of higher-order models for capturing the solutions to ODEs. These models combine neural networks and symbolic terms: they use higher order Lie derivatives and a Taylor series expansion obtained symbolically, with the remainder term modeled as a neural network. The key insight is that the remainder term can itself be modeled as a solution to a first-order ODE. We show how the use of these higher order PINNs can improve accuracy using interesting, but challenging ODE benchmarks. We also show that the resulting model can be quite useful for situations such as controlling uncertain physical systems modeled as ODEs.
评论: 22页,13图,4表,神经符号系统 2025
主题: 机器学习 (cs.LG) ; 符号计算 (cs.SC)
引用方式: arXiv:2507.03860 [cs.LG]
  (或者 arXiv:2507.03860v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.03860
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Chandra Kanth Nagesh [查看电子邮件]
[v1] 星期六, 2025 年 7 月 5 日 02:03:36 UTC (245 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.SC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号