统计学 > 机器学习
[提交于 2012年4月11日
(v1)
,最后修订 2012年10月19日 (此版本, v4)]
标题: 最小绝对梯度选择器:通过伪硬阈值进行统计回归
标题: Least Absolute Gradient Selector: Statistical Regression via Pseudo-Hard Thresholding
摘要: 变量选择在线性模型中在现代统计学中起着关键作用。 硬阈值方法,如$l_0$正则化,在理论上是理想的但计算上不可行。 在本文中,我们提出了一种新的方法,称为 LAGS,即“最小绝对梯度选择器”,通过模仿$l_0$正则化的离散选择过程来解决这个具有挑战性且有趣的问题。 为了在噪声影响下估计$\beta$,我们仍然考虑以下凸程序 [\hat{\beta} = \textrm{最小值点}\frac{1}{n} \|X^{T}(y - X\beta )\|_1 + \lambda _n\sum _{i = 1}^pw_i(y;X;n)|\beta _i|] $\lambda_n > 0$ 控制稀疏性,而 $w_i > 0$ 依赖于 $y, X$ 和 $n$ 是不同 $\beta_i$的权重;$n$是样本量。 令人惊讶的是,我们在论文中将从几何和分析的角度证明,LAGS具有两个吸引人的特性:(1) LAGS表现出离散选择行为和硬阈值性质,作为$l_0$正则化,通过有策略选择的$w_i$,我们称这一性质为“伪硬阈值”; (2) 渐近地,LAGS是一致的,并能够发现真实模型;非渐近地,LAGS能够识别模型中的稀疏性,系数的预测误差在噪声水平上被限制,最多是一个对数因子——$\log p$,其中$p$是预测变量的数量。 在计算上,由于凸性,LAGS可以通过凸规划方法高效求解,或者在将其重新表述为线性规划后通过单纯形算法求解。 数值模拟显示,在均方误差和模型简洁性方面,LAGS优于软阈值方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.