计算机科学 > 机器学习
[提交于 2025年10月13日
]
标题: 理解随机梯度Adam在学习神经网络中的泛化能力
标题: Understanding the Generalization of Stochastic Gradient Adam in Learning Neural Networks
摘要: Adam是深度学习中一种流行且广泛使用的自适应梯度方法,在理论研究中也受到了极大的关注。然而,大多数现有的理论工作主要分析其全批量版本,这与实际中使用的随机变体存在根本性差异。与SGD不同,即使在极小的学习率下,随机Adam也不会收敛到其全批量对应项。我们首次对批次大小如何影响Adam的泛化进行了理论分析,在图像数据上的两层过参数化卷积神经网络上进行了分析。我们的结果表明,尽管Adam和带有适当权重衰减的AdamW $\lambda$会收敛到较差的测试误差解,但它们的小批量变体可以达到接近零的测试误差。我们进一步证明,Adam的有效权重衰减边界严格小于AdamW,从理论上解释了为什么Adam需要更敏感的 $\lambda$ 调整。大量实验验证了我们的发现,展示了批次大小和权重衰减在Adam泛化性能中的关键作用。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.