数学 > 统计理论
[提交于 2022年5月14日
]
标题: 高维中SGD的均质化:精确动力学和泛化特性
标题: Homogenization of SGD in high-dimensions: Exact dynamics and generalization properties
摘要: 我们开发了一个随机微分方程,称为均化SGD,用于分析高维随机最小二乘问题上带有$\ell^2$-正则化的随机梯度下降(SGD)的动力学。 我们证明了均化SGD是SGD的高维等价形式——对于任何二次统计量(例如,具有二次损失的总体风险),当样本数量$n$和特征数量$d$多项式相关($d^c < n < d^{1/c}$对于某些$c > 0$)时,SGD迭代下的统计量会收敛到均化SGD下的统计量。 通过分析均化SGD,我们提供了SGD泛化性能的精确非渐近高维表达式,该表达式以一个Volterra积分方程的解来表示。 进一步地,我们在SGD训练的情况下,给出了二次损失下极限过量风险的精确值。 该分析适用于满足一组预解条件的数据矩阵和目标向量,这些条件可以粗略地看作是数据样本侧奇异向量的弱(非定量)去局域化形式。 提供了几个激励性的应用,包括独立样本的样本协方差矩阵和非生成模型目标的随机特征。
当前浏览上下文:
math.ST
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.