数学 > 统计理论
[提交于 2021年8月26日
(v1)
,最后修订 2022年6月12日 (此版本, v2)]
标题: 比较估计量类:在线性模型中梯度下降何时优于岭回归?
标题: Comparing Classes of Estimators: When does Gradient Descent Beat Ridge Regression in Linear Models?
摘要: 从数据中学习的方法依赖于各种类型的调整参数,例如惩罚强度或步长大小。 由于性能可能强烈依赖这些参数,因此通过考虑预设的有限参数集合来比较估计器类别比仅仅比较特别调优的方法更为重要。 在这项工作中,我们通过类中最佳方法的相对性能来研究方法类别。 我们考虑线性回归的核心问题——随机各向同性真实值,并研究两种基本方法(梯度下降和岭回归)的估计性能。 我们揭示了以下现象。 (1) 对于一般设计,当经验数据协方差矩阵的特征值以小于1的幂律衰减时,固定步长梯度下降优于岭回归。如果相反,特征值以大于1的幂律或指数快速衰减,我们证明岭回归优于梯度下降。 (2) 对于正交设计,我们计算出精确的最小最大最优估计器类别(实现最小-最大-最小最优性),表明它等价于具有衰减学习率的梯度下降。我们发现固定步长的岭回归和梯度下降的次优性。 我们的结果强调统计性能可能强烈依赖调整参数。特别是,虽然最优调优的岭回归是我们设定下最好的估计器,但它可以被梯度下降任意/无界地超过,当两种方法仅在有限多个正则化参数范围内进行调优时。
当前浏览上下文:
math.ST
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.