统计学 > 方法论
[提交于 2025年7月16日
(v1)
,最后修订 2025年7月17日 (此版本, v2)]
标题: $K$重交叉验证基于惩罚的方法是否执行变量选择,还是导致 Lasso 的$n^{1/2}$一致性?
标题: Does $K$-fold CV based penalty perform variable selection or does it lead to $n^{1/2}$-consistency in Lasso?
摘要: 最小绝对收缩和选择算子或Lasso,由Tibshirani(1996)引入,是回归中广泛使用的正则化方法之一。观察到Lasso的性质会随着惩罚参数的选择而剧烈变化。Lahiri(2021)的最新结果表明,根据惩罚参数的性质,Lasso可以是变量选择一致的,也可以是$n^{1/2}-$一致的。然而,实践者通常以数据依赖的方式选择惩罚参数,最流行的是$K$折交叉验证。在本文中,我们探讨当惩罚参数基于$K$折交叉验证选择且$K$固定时,Lasso的变量选择一致性和$n^{1/2}-$一致性。我们考虑固定维数的异方差线性回归模型,并证明基于$K$折交叉验证的惩罚的Lasso是$n^{1/2}-$一致的,但不是变量选择一致的。 我们还建立了基于$K$折交叉验证的惩罚的$n^{1/2}-$一致性作为中间结果。 此外,作为$n^{1/2}-$一致性的结果,我们建立了 Bootstrap 方法的有效性,以近似基于$K-$折交叉验证的 Lasso 估计量的分布。 我们根据一个中等规模的模拟研究验证了有限样本中的 Bootstrap 近似效果。 因此,我们的结果基本上证明了在实践中使用$K$折交叉验证来基于 Lasso 回归中的$n^{1/2}-$缩放枢轴量进行推断的合理性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.