统计学 > 机器学习
[提交于 2012年9月7日
(v1)
,最后修订 2016年1月27日 (此版本, v4)]
标题: 基于学习的模型稀疏性通过投影梯度下降法
标题: Learning Model-Based Sparsity via Projected Gradient Descent
摘要: 之前已经提出了几种用于结构化稀疏先验的统计估计的凸公式方法。 这些方法通常需要仔细调整正则化参数,这往往是一项繁琐或启发式的任务。 此外,这些方法产生的估计可能不属于所需的稀疏模型,尽管能够准确地近似真实参数。 因此,在估计结构化稀疏参数时,贪心型算法常常更为可取。 到目前为止,这些贪心方法大多集中在线性统计模型上。 本文研究了具有非凸结构化稀疏参数模型作为约束集的投影梯度下降法。 如果代价函数具有稳定的模型受限Hessian,则该算法可以产生所需最小值的近似值。 作为一个例子,我们详细阐述了主要结果在广义线性模型中的应用。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.