统计学 > 机器学习
标题: 最小绝对梯度选择器:通过伪硬阈值进行统计回归
标题: Least Absolute Gradient Selector: Statistical Regression via Pseudo-Hard Thresholding
摘要: 变量选择在线性模型中在现代统计学中起着关键作用。硬阈值方法,如$l_0$正则化,在理论上是理想的但计算上不可行。在本文中,我们提出了一种新方法,称为\textbf{滞后},即“最小绝对梯度选择器”,通过模仿$l_0$正则化的离散选择过程来解决这个具有挑战性且有趣的问题。 为了在噪声影响下估计$\beta$,我们仍然考虑以下凸程序 \[\hat{\beta} = \textrm{arg min}\frac{1}{n}\|X^{T}(y - X\beta)\|_1 + \lambda_n\sum_{i = 1}^pw_i(y;X;n)|\beta_i|\] $\lambda_n > 0$控制稀疏性,而$w_i > 0$依赖于$y, X$和 $n$是不同$\beta_i$的权重;$n$是样本量。 Surprisingly, we shall show in the paper, both geometrically and analytically, that LAGS enjoys two attractive properties: (1) LAGS demonstrates discrete selection behavior and hard thresholding property as $l_0$ regularization by strategically chosen $w_i$, we call this property \emph{“伪硬阈值”}; (2) Asymptotically, LAGS is consistent and capable of discovering the true model; nonasymptotically, LAGS is capable of identifying the sparsity in the model and the prediction error of the coefficients is bounded at the noise level up to a logarithmic factor---$\log p$, where $p$ is the number of predictors. Computationally, LAGS can be solved efficiently by convex program routines for its convexity or by simplex algorithm after recasting it into a linear program. The numeric simulation shows that LAGS is superior compared to soft-thresholding methods in terms of mean squared error and parsimony of the model.
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.