统计学 > 机器学习
[提交于 2017年5月31日
(v1)
,最后修订 2018年12月18日 (此版本, v2)]
标题: 贝叶斯$l_0$-正则化最小二乘法
标题: Bayesian $l_0$-regularized Least Squares
摘要: 贝叶斯$l_0$-正则化最小二乘法是一种针对高维预测变量的变量选择技术。 挑战在于通过搜索模型空间(即所有可能的预测变量组合)来优化非凸目标函数。 尖峰-滑动(又称伯努利-高斯)先验是贝叶斯变量选择的标准方法,但存在计算速度和可扩展性的问题。 单次最佳替换(SBR)提供了一种快速且可扩展的替代方案。 我们建立了贝叶斯正则化与近端更新之间的联系,这表明找到后验模式与使用不同正则化先验的后验均值是等价的。 这使我们可以利用SBR找到尖峰-滑动估计量。 为了说明我们的方法,我们提供了模拟证据以及基于SBR与直接使用尖峰-滑动先验进行后验采样的统计性质和计算效率的真实数据实例。 最后,我们提出了未来研究的方向。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.