数学 > 动力系统
[提交于 2025年7月7日
]
标题: 从动力系统的角度分析神经网络
标题: A Dynamical Systems Perspective on the Analysis of Neural Networks
摘要: 在本章中,我们利用动力系统来分析机器学习算法的几个方面。作为说明性的贡献,我们展示了如何将来自深度神经网络、(随机)梯度下降及相关主题的广泛挑战重新表述为动力学陈述。我们还解决了三个具体的挑战。首先,我们考虑信息通过神经网络的传播过程,即我们研究不同架构的输入输出映射。我们解释了表示给定正则性任意函数的增强神经微分方程的普遍嵌入性质,以及基于适当函数类的多层感知器和神经微分方程的分类,以及神经延迟方程中的记忆依赖性。其次,我们从动态角度考虑神经网络的训练方面。我们描述了对梯度下降的动力系统视角,并研究了过定问题的稳定性。然后我们将这种分析扩展到过度参数化设置,并描述了稳定性边缘现象,也包括可能对隐式偏差的解释。对于随机梯度下降,我们通过插值解的李雅普诺夫指数给出了过度参数化设置下的稳定性结果。第三,我们解释了关于神经网络平均场极限的几个结果。我们描述了一个结果,该结果通过有向图测度将现有技术扩展到涉及图极限的异质神经网络。这表明大量神经网络自然落在图上的Kuramoto型模型及其大图极限框架内。最后,我们指出,使用动力学来研究可解释和可靠的人工智能的类似策略也可以应用于生成模型等场景,或者梯度训练方法中的基本问题,如反向传播或梯度消失/爆炸问题。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.