Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2502.00705

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2502.00705 (cs)
[提交于 2025年2月2日 ]

标题: 神经算子的优化可以从宽度中受益

标题: Optimization for Neural Operators can Benefit from Width

Authors:Pedro Cisneros-Velarde, Bhavesh Shrimali, Arindam Banerjee
摘要: 直接学习函数空间之间映射的神经算子,如深度算子网络(DONs)和傅里叶神经算子(FNOs),已经引起了广泛关注。 尽管DONs和FNOs具有通用逼近保证,但目前尚无使用梯度下降(GD)学习此类网络的优化收敛保证。 在本文中,我们通过提出一个基于GD的优化统一框架来解决这个开放问题,并将其应用于建立DONs和FNOs的收敛保证。 特别是,我们证明了这两种神经算子相关的损失满足两个条件——受限强凸性(RSC)和光滑性——这些条件保证由于GD导致其损失值的减少。 值得注意的是,由于各自模型架构的不同,这两个条件分别适用于每个神经算子。 理论的一个重要结论是,更宽的网络应该能为DONs和FNOs带来更好的优化收敛性。 我们展示了在典型算子学习问题上的实验结果,以支持我们的理论结果。
摘要: Neural Operators that directly learn mappings between function spaces, such as Deep Operator Networks (DONs) and Fourier Neural Operators (FNOs), have received considerable attention. Despite the universal approximation guarantees for DONs and FNOs, there is currently no optimization convergence guarantee for learning such networks using gradient descent (GD). In this paper, we address this open problem by presenting a unified framework for optimization based on GD and applying it to establish convergence guarantees for both DONs and FNOs. In particular, we show that the losses associated with both of these neural operators satisfy two conditions -- restricted strong convexity (RSC) and smoothness -- that guarantee a decrease on their loss values due to GD. Remarkably, these two conditions are satisfied for each neural operator due to different reasons associated with the architectural differences of the respective models. One takeaway that emerges from the theory is that wider networks should lead to better optimization convergence for both DONs and FNOs. We present empirical results on canonical operator learning problems to support our theoretical results.
主题: 机器学习 (cs.LG) ; 优化与控制 (math.OC)
引用方式: arXiv:2502.00705 [cs.LG]
  (或者 arXiv:2502.00705v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2502.00705
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Pedro Cisneros-Velarde [查看电子邮件]
[v1] 星期日, 2025 年 2 月 2 日 07:33:00 UTC (12,712 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.OC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-02
切换浏览方式为:
cs
cs.LG
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号