Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:1912.12834

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:1912.12834 (cs)
[提交于 2019年12月30日 ]

标题: 随机投影的加性高斯过程用于回归

标题: Randomly Projected Additive Gaussian Processes for Regression

Authors:Ian A. Delbridge, David S. Bindel, Andrew Gordon Wilson
摘要: 高斯过程(GPs)提供了灵活的函数分布,其归纳偏置由核函数控制。然而,在许多应用中,即使对于适度的输入维度,高斯过程也可能遇到困难。学习一个低维投影可以帮助缓解维度灾难的问题,但会引入许多可训练的超参数,这在小数据集情况下尤其繁琐。我们使用高斯过程回归中的核函数加和,其中每个核函数对其输入的不同随机投影进行操作。令人惊讶的是,我们发现随着随机投影数量的增加,这种方法的预测性能快速收敛到在原始全维度输入上操作的核函数的性能,即使我们将输入投影到单个维度,这种现象在多种数据集上仍然成立。因此,许多问题可以显著地被简化为一维输入空间,而无需学习变换。我们证明了这种收敛性及其速率,并进一步提出了一种确定性的方法,其收敛速度比纯随机投影更快。此外,我们展示了与原始输入空间中的核函数相比,我们的方法对于高维输入可以实现更快的推理和改进的预测准确性。
摘要: Gaussian processes (GPs) provide flexible distributions over functions, with inductive biases controlled by a kernel. However, in many applications Gaussian processes can struggle with even moderate input dimensionality. Learning a low dimensional projection can help alleviate this curse of dimensionality, but introduces many trainable hyperparameters, which can be cumbersome, especially in the small data regime. We use additive sums of kernels for GP regression, where each kernel operates on a different random projection of its inputs. Surprisingly, we find that as the number of random projections increases, the predictive performance of this approach quickly converges to the performance of a kernel operating on the original full dimensional inputs, over a wide range of data sets, even if we are projecting into a single dimension. As a consequence, many problems can remarkably be reduced to one dimensional input spaces, without learning a transformation. We prove this convergence and its rate, and additionally propose a deterministic approach that converges more quickly than purely random projections. Moreover, we demonstrate our approach can achieve faster inference and improved predictive accuracy for high-dimensional inputs compared to kernels in the original input space.
主题: 机器学习 (cs.LG) ; 机器学习 (stat.ML)
引用方式: arXiv:1912.12834 [cs.LG]
  (或者 arXiv:1912.12834v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.1912.12834
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Andrew Wilson [查看电子邮件]
[v1] 星期一, 2019 年 12 月 30 日 07:26:18 UTC (257 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2019-12
切换浏览方式为:
cs
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号