Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.23501

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2510.23501 (cs)
[提交于 2025年10月27日 ]

标题: 面向深度物理信息Kolmogorov-Arnold网络

标题: Towards Deep Physics-Informed Kolmogorov-Arnold Networks

Authors:Spyros Rigas, Fotios Anagnostopoulos, Michalis Papachristou, Georgios Alexandridis
摘要: 自引入以来,Kolmogorov-Arnold Networks(KANs)已在多个领域成功应用,其中基于物理信息的机器学习(PIML)成为它们蓬勃发展的一个领域。 在PIML设置中,基于切比雪夫的物理信息KANs(cPIKANs)由于其计算效率而成为标准。 然而,与基于多层感知器的对应方法类似,当cPIKANs扩展到深度时,会面临重大挑战,导致训练不稳定,限制了它们在多个PDE问题中的应用。 为了解决这个问题,我们提出了一种与基无关的、类似Glorot的初始化方案,该方案保持激活值方差,并在稳定性与准确性方面显著优于cPIKANs的默认初始化。 受PirateNet架构的启发,我们进一步引入了残差门控自适应KANs(RGA KANs),旨在缓解深度cPIKANs中的发散问题,仅靠初始化已不足以解决这些问题。 通过实验测试和信息瓶颈分析,我们表明RGA KANs能够成功通过所有训练阶段,而基线cPIKANs在特定PDE设置中会在扩散阶段停滞。 在固定训练流程下,对七个标准前向PDE基准进行评估,结果显示RGA KANs在参数匹配的情况下始终优于cPIKANs和PirateNets——通常好几倍——同时在其他模型发散的设置中仍保持稳定。
摘要: Since their introduction, Kolmogorov-Arnold Networks (KANs) have been successfully applied across several domains, with physics-informed machine learning (PIML) emerging as one of the areas where they have thrived. In the PIML setting, Chebyshev-based physics-informed KANs (cPIKANs) have become the standard due to their computational efficiency. However, like their multilayer perceptron-based counterparts, cPIKANs face significant challenges when scaled to depth, leading to training instabilities that limit their applicability to several PDE problems. To address this, we propose a basis-agnostic, Glorot-like initialization scheme that preserves activation variance and yields substantial improvements in stability and accuracy over the default initialization of cPIKANs. Inspired by the PirateNet architecture, we further introduce Residual-Gated Adaptive KANs (RGA KANs), designed to mitigate divergence in deep cPIKANs where initialization alone is not sufficient. Through empirical tests and information bottleneck analysis, we show that RGA KANs successfully traverse all training phases, unlike baseline cPIKANs, which stagnate in the diffusion phase in specific PDE settings. Evaluations on seven standard forward PDE benchmarks under a fixed training pipeline with adaptive components demonstrate that RGA KANs consistently outperform parameter-matched cPIKANs and PirateNets - often by several orders of magnitude - while remaining stable in settings where the others diverge.
评论: 73页,22图
主题: 机器学习 (cs.LG) ; 计算物理 (physics.comp-ph)
引用方式: arXiv:2510.23501 [cs.LG]
  (或者 arXiv:2510.23501v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.23501
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Spyros Rigas [查看电子邮件]
[v1] 星期一, 2025 年 10 月 27 日 16:35:01 UTC (4,558 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
physics
physics.comp-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号