统计学 > 机器学习
[提交于 2015年12月23日
]
标题: 在线凸优化的自适应算法与长期约束
标题: Adaptive Algorithms for Online Convex Optimization with Long-term Constraints
摘要: 我们提出了一种自适应在线梯度下降算法,以解决具有长期约束的在线凸优化问题,这些约束需要在有限轮数T内累积满足,但在中间轮次中可以被违反。 对于某些用户定义的权衡参数$\beta$ $\in$ (0, 1),所提出的算法分别在损失和约束违反方面实现了累计遗憾界的O(T^max{$\beta$,1--$\beta$})和O(T^(1--$\beta$/2))。 我们的结果适用于凸损失,并且可以在不需要预先知道轮数的情况下处理任意凸约束。 我们的贡献改进了Mahdavi等人(2012)的最佳已知累计遗憾界,分别为一般凸域的O(T^1/2)和O(T^3/4),以及在进一步限制到多面体域时的O(T^2/3)和O(T^2/3)。 我们通过实验补充了分析,验证了我们的算法在实际中的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.