计算机科学 > 机器学习
[提交于 2025年3月16日
]
标题: alpha-SVRG在强凸性下的收敛性分析
标题: Convergence Analysis of alpha-SVRG under Strong Convexity
摘要: 随机一阶方法用于经验风险最小化,使用基于抽样数据的梯度近似来代替精确梯度。 这种构造会将噪声引入学习动态中,可以通过方差减少技术进行校正。 文献中有越来越多的证据表明,在许多现代学习应用中,噪声对优化和泛化可能具有有益的影响。 为此,最近提出的方差减少技术 alpha-SVRG [Yin 等,2023] 允许对学习动态中的残余噪声水平进行细粒度控制,并且在现代深度学习场景中已被报告在实验中优于 SGD 和 SVRG。 通过专注于强凸环境,我们首先在固定学习率下为 alpha-SVRG 提供了一个统一的收敛速率表达式,当设置 alpha=0 或 alpha=1 时,该表达式分别简化为 SGD 或 SVRG 的收敛速率。 我们证明,在适当选择 alpha 的情况下,alpha-SVRG 相比于 SGD 和 SVRG 具有更快的收敛速率。 在线性回归上的仿真结果验证了我们的理论。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.