数学 > 统计理论
[提交于 2015年7月3日
(v1)
,最后修订 2017年4月5日 (此版本, v3)]
标题: 稀疏学习的I-LAMM:同时控制算法复杂度和统计误差
标题: I-LAMM for Sparse Learning: Simultaneous Control of Algorithmic Complexity and Statistical Error
摘要: 我们提出了一种名为迭代局部自适应主逼近最小化(I-LAMM)的计算框架,旨在同时控制拟合高维模型时的算法复杂性和统计误差。 I-LAMM 是对一族折叠凹惩罚拟似然函数的局部线性近似的一种两阶段算法实现。第一阶段通过一个粗略的精度容差解决一个凸优化问题,以获得一个粗略的初始估计值,然后在第二阶段通过迭代求解一系列具有更小精度容差的凸优化问题来进一步细化该估计值。 从理论上讲,我们确立了一个相变:第一阶段具有次线性的迭代复杂度,而第二阶段则实现了改进的线性收敛率。尽管这一框架完全是算法化的,但它为一大类非凸优化问题提供了具有最优统计性能和受控算法复杂度的解决方案。 通过收缩性质,明确展示了迭代对统计误差的影响。我们的理论依赖于稀疏/受限特征值条件的局部版本,这使得我们可以分析一大类损失函数和惩罚函数,并在非常弱的假设下提供最优性保证(例如,I-LAMM 对最小信号强度的要求远低于其他方法)。 全面的数值结果被提供以支持所得到的理论。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.