计算机科学 > 机器学习
[提交于 2025年2月2日
]
标题: 神经算子的优化可以从宽度中受益
标题: Optimization for Neural Operators can Benefit from Width
摘要: 直接学习函数空间之间映射的神经算子,如深度算子网络(DONs)和傅里叶神经算子(FNOs),已经引起了广泛关注。 尽管DONs和FNOs具有通用逼近保证,但目前尚无使用梯度下降(GD)学习此类网络的优化收敛保证。 在本文中,我们通过提出一个基于GD的优化统一框架来解决这个开放问题,并将其应用于建立DONs和FNOs的收敛保证。 特别是,我们证明了这两种神经算子相关的损失满足两个条件——受限强凸性(RSC)和光滑性——这些条件保证由于GD导致其损失值的减少。 值得注意的是,由于各自模型架构的不同,这两个条件分别适用于每个神经算子。 理论的一个重要结论是,更宽的网络应该能为DONs和FNOs带来更好的优化收敛性。 我们展示了在典型算子学习问题上的实验结果,以支持我们的理论结果。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.