统计学 > 机器学习
[提交于 2015年7月23日
]
标题: 局部支持向量机的最优学习率
标题: Optimal Learning Rates for Localized SVMs
摘要: 支持向量机(SVMs)在大规模应用中的一个限制因素是其计算需求随着训练样本数量呈超线性增长。 为了解决这个问题,文献中提出了几种在大型数据集的许多小块上分别训练SVM的方法。 到目前为止,然而,几乎所有这些方法都只进行了经验研究。 此外,它们的动机总是基于计算需求。 在本工作中,我们考虑一种基于输入空间划分的局部SVM方法。 对于这种局部SVM,我们推导了一个一般的oracle不等式。 然后我们将这个oracle不等式应用于使用高斯核的最小二乘回归,并推导出在回归函数的一些标准平滑性假设下本质上是最优的局部学习率。 这给出了第一个使用局部SVM的动机,该动机不是基于计算需求,而是基于对泛化性能的理论预测。 我们进一步为我们的局部SVM方法引入了一种数据相关的参数选择方法,并证明该方法达到了与之前相同的学习率。 最后,我们展示了我们的局部SVM的更大规模实验,表明它在计算需求仅为全局SVM的一小部分的情况下,基本上实现了相同的测试性能。 此外,结果表明,局部SVM的计算需求与普通随机分块方法相似,而达到的测试误差则显著更好。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.