统计学 > 机器学习
[提交于 2019年5月29日
(v1)
,最后修订 2020年2月23日 (此版本, v2)]
标题: 非线性多任务学习与深度高斯过程
标题: Non-linear Multitask Learning with Deep Gaussian Processes
摘要: 我们提出了一个针对深度高斯过程(DGPs)的多任务学习公式,通过潜在过程的非线性混合实现。潜在空间由捕捉任务内信息的私有过程和捕捉跨任务依赖性的共享过程组成。我们提出了两种不同的方法来分割潜在空间:通过硬编码共享和任务特定过程,或者通过使用自动相关确定核的软共享。我们证明了我们的公式能够提高学习性能,并在任务之间传递信息,在真实世界和基准设置下优于其他概率多任务学习模型。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.