统计学 > 机器学习
[提交于 2025年10月15日
]
标题: 多类随机梯度下降的精确动力学
标题: Exact Dynamics of Multi-class Stochastic Gradient Descent
摘要: 我们开发了一个框架,用于分析使用单次遍历随机梯度下降(SGD)训练的多种高维优化问题的训练和学习率动态,这些数据来自多个各向异性类别。 我们给出了限制动态的一类函数的精确表达式,包括风险和与真实信号的重叠,这些表达式是基于一个常微分方程组(ODE)的确定性解。 我们将现有的高维SGD动态理论扩展到高斯混合数据和大量(随着参数规模增长)类别。 然后,我们详细研究了数据协方差的各向异性结构在二元逻辑回归和最小二乘损失问题中的影响。 我们研究了三种情况:各向同性协方差、具有大量零特征值的数据协方差矩阵(称为零一模型),以及谱遵循幂律分布的协方差矩阵。 我们证明存在一种结构相变。 特别是,我们证明对于零一模型和足够大的幂的幂律模型,SGD倾向于更紧密地对齐于投影到“干净方向”(即方差较小的方向)的类别均值。 这得到了数值模拟和分析研究的支持,这些研究显示了高维极限下损失的精确渐近行为。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.