数学 > 统计理论
标题: i-LAMM用于稀疏学习:算法复杂度和统计误差的同时控制
标题: i-LAMM for Sparse Learning: Simultaneous Control of Algorithmic Complexity and Statistical Error
摘要: 我们提出一种名为迭代局部自适应主要最小化(I-LAMM)的计算框架,在拟合高维模型时同时控制算法复杂度和统计误差。 I-LAMM 是对一类折叠凹惩罚似然函数的局部线性近似的两阶段算法实现。 第一阶段通过粗略的精度容限求解一个凸规划问题,以获得一个粗略的初始估计量,该估计量在第二阶段通过迭代求解一系列精度容限更小的凸规划问题进一步优化。 理论上,我们建立了相变现象:第一阶段具有次线性的迭代复杂度,而第二阶段实现了改进的线性收敛速率。 尽管该框架完全是算法性的,但它为一大类非凸优化问题提供了具有最优统计性能且控制算法复杂度的解决方案。 通过收缩性质,迭代对统计误差的影响得到了清晰的展示。 我们的理论依赖于稀疏/受限特征值条件的局部版本,这使我们能够分析一大类损失和惩罚函数,并在非常弱的假设下提供最优性保证 (例如,I-LAMM 所需的最小信号强度远低于其他方法)。 提供了详尽的数值结果来支持所获得的理论。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.