计算机科学 > 机器学习
[提交于 2019年12月30日
]
标题: 随机投影的加性高斯过程用于回归
标题: Randomly Projected Additive Gaussian Processes for Regression
摘要: 高斯过程(GPs)提供了灵活的函数分布,其归纳偏置由核函数控制。然而,在许多应用中,即使对于适度的输入维度,高斯过程也可能遇到困难。学习一个低维投影可以帮助缓解维度灾难的问题,但会引入许多可训练的超参数,这在小数据集情况下尤其繁琐。我们使用高斯过程回归中的核函数加和,其中每个核函数对其输入的不同随机投影进行操作。令人惊讶的是,我们发现随着随机投影数量的增加,这种方法的预测性能快速收敛到在原始全维度输入上操作的核函数的性能,即使我们将输入投影到单个维度,这种现象在多种数据集上仍然成立。因此,许多问题可以显著地被简化为一维输入空间,而无需学习变换。我们证明了这种收敛性及其速率,并进一步提出了一种确定性的方法,其收敛速度比纯随机投影更快。此外,我们展示了与原始输入空间中的核函数相比,我们的方法对于高维输入可以实现更快的推理和改进的预测准确性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.