数学 > 统计理论
[提交于 2024年12月12日
(v1)
,最后修订 2025年1月7日 (此版本, v2)]
标题: 梯度下降推断在经验风险最小化中
标题: Gradient descent inference in empirical risk minimization
摘要: 梯度下降法是现代统计学习中最广泛使用的迭代算法之一。然而,在高维设置下的精确算法动力学仍然只被部分理解,这因此限制了它在统计推断应用中的更广泛应用潜力。本文在所谓的均值场(mean-field)条件下,即样本量与信号维度成比例时,提供了经验风险最小化问题中梯度下降迭代的精确的非渐近分布特征刻画。我们的非渐近状态演化理论适用于一般非凸损失函数和非高斯数据,并揭示了两个奥恩萨格校正矩阵在均值场条件下精确表征所有梯度下降迭代之间非平凡依赖的核心作用。尽管奥恩萨格校正矩阵通常是解析上难以处理的,但我们的状态演化理论促进了通用的梯度下降推理算法,该算法可以一致地估计这些矩阵跨越广泛的模型类别。利用这一算法,我们展示了状态演化可以被反演以构建(i)用于梯度下降迭代泛化误差的数据驱动估计器以及(ii)用于未知信号推理的去偏梯度下降迭代。详细的应用到两个典型模型——线性回归和(广义)逻辑回归——以说明我们一般理论和推理方法的模型特定特性。
当前浏览上下文:
math.ST
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.