统计学 > 机器学习
[提交于 2012年4月11日
(此版本)
, 最新版本 2012年10月19日 (v4)
]
标题: 最小绝对梯度选择器:通过伪硬阈值的统计回归
标题: Least Absolute Gradient Selector: Statistical Regression via Pseudo-Hard Thresholding
摘要: 变量选择在线性模型中在现代统计学中起着关键作用。硬阈值方法,如$l_0$正则化,在理论上是理想的但计算上不可行。在本文中,我们提出了一种新方法,称为\textbf{滞后},即“最小绝对梯度选择器”,通过模仿$l_0$正则化的离散选择过程来解决这个具有挑战性且有趣的问题。 为了在噪声影响下估计$\beta$,我们仍然考虑以下凸程序 \[\hat{\beta} = \textrm{arg min}\frac{1}{n}\|X^{T}(y - X\beta)\|_1 + \lambda_n\sum_{i = 1}^pw_i(y;X;n)|\beta_i|\] $\lambda_n > 0$控制稀疏性,$w_i > 0$依赖于$y, X$和 $n$是不同$\beta_i$的权重;$n$是样本量。 令人惊讶的是,我们在论文中将通过几何和分析方法展示,LAGS具有两个吸引人的特性:(1) LAGS在选择离散变量和硬阈值属性方面表现出与$l_0$正则化相似的行为,这是通过精心选择的$w_i$实现的,我们称这一特性为\emph{“伪硬阈值”};(2) 渐近地,LAGS是一致的,并能够发现真实模型;非渐近地,LAGS能够识别模型中的稀疏性,系数的预测误差在噪声水平上被限制,最多是一个对数因子---$\log p$,其中$p$是预测变量的数量。 在计算方面,由于凸性,LAGS可以通过凸程序方法高效求解,或者在将其重新表述为线性规划后通过单纯形算法求解。 数值模拟显示,在均方误差和模型简洁性方面,LAGS优于软阈值方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.