数学 > 统计理论
[提交于 2015年1月1日
]
标题: 高维鲁棒M估计量的统计一致性与渐近正态性
标题: Statistical consistency and asymptotic normality for high-dimensional robust M-estimators
摘要: 我们研究了正则化鲁棒M估计量的理论性质,适用于数据从稀疏高维线性模型中抽取且受到重尾分布和/或误差项及协变量中的异常值污染的情况。 我们首先在误差分布满足较为温和条件的情况下,针对惩罚回归估计量建立了一种局部统计一致性形式:当损失函数的导数有界且满足局部限制曲率条件时,所有位于真实回归向量常数半径内的驻点都以Lasso(子高斯误差)所享有的最小最大速率收敛。 当用适当的非凸正则化代替l_1惩罚时,我们证明了这些驻点实际上是唯一的,并等于具有正确支持的局部oracle解——因此,低维情况下关于渐近正态性的结果可以立即推广到高维情形。 这对误差为重尾分布时正则化非凸M估计量的效率具有重要意义。 我们对损失函数局部曲率的分析对于优化同样具有实际意义,特别是在鲁棒回归函数和/或正则化器是非凸的且目标函数在外围区域存在驻点时。 我们表明,只要复合梯度下降算法初始化在真实回归向量的常数半径内,迭代序列就会以线性速率收敛到局部区域内的驻点。 此外,凸正则化鲁棒回归函数的全局最优解可用于获得合适的初始化。 结果是一种新颖的两步程序,使用凸M估计量实现一致性,使用非凸M估计量提高效率。
当前浏览上下文:
math.ST
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.