统计学 > 机器学习
[提交于 2018年10月11日
(v1)
,最后修订 2020年8月21日 (此版本, v4)]
标题: 具有许多通道的贝叶斯深度卷积网络是高斯过程
标题: Bayesian Deep Convolutional Networks with Many Channels are Gaussian Processes
摘要: 宽全连接神经网络(FCNs)和高斯过程(GPs)之间存在先前确定的等价性。 这种等价性使得可以计算出从一个完全贝叶斯、无限宽训练的FCN中得到的测试集预测,而无需实例化FCN,而是通过评估相应的GP来实现。 在本工作中,我们推导了多层卷积神经网络(CNNs)与高斯过程之间的类似等价性,无论是带有池化层还是不带池化层的CNNs,并在CIFAR10上实现了没有可训练核的GPs的最先进结果。 我们还引入了一种蒙特卡洛方法来估计给定神经网络架构对应的GP,即使分析形式中的项太多以至于计算不可行。 令人惊讶的是,在没有池化层的情况下,具有权重共享和不具有权重共享的CNN对应的GPs是相同的。 因此,翻译不变性在有限通道CNNs中使用随机梯度下降(SGD)训练时是有益的,但在无限通道极限的贝叶斯处理中保证不会起作用——这是两种范式之间的定性差异,而在FCN情况下并不存在。 我们通过实验确认,在某些情况下,随着通道数的增加,SGD训练的有限CNN的性能接近于相应的GPs,但经过仔细调整后,SGD训练的CNN可以显著优于其对应的GPs,这表明与完全贝叶斯参数估计相比,SGD训练具有优势。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.