计算机科学 > 计算机视觉与模式识别
[提交于 2019年11月28日
]
标题: 连续Dropout
标题: Continuous Dropout
摘要: Dropout 已被证明是一种有效的训练鲁棒深度网络的算法,因为它能够通过避免特征检测器的共适应来防止过拟合。 目前对 Dropout 的解释包括装袋、朴素贝叶斯、正则化和进化中的性选择。 根据人类大脑中神经元的激活模式,在面对不同情况时,神经元的放电率是随机且连续的,而不是当前 Dropout 所采用的二进制方式。 受此现象启发,我们将传统的二值 Dropout 扩展到连续 Dropout。 一方面,连续 Dropout 比传统的二值 Dropout 更接近人类大脑中神经元的激活特性。 另一方面,我们证明了连续 Dropout 具有避免特征检测器共适应的性质,这表明我们可以提取更多的独立特征检测器用于测试阶段的模型平均。 我们将提出的连续 Dropout 引入前馈神经网络,并在 MNIST、CIFAR-10、SVHN、NORB 和 ILSVRC-12 数据集上与二值 Dropout、自适应 Dropout 和 DropConnect 进行全面比较。 彻底的实验表明,我们的方法在防止特征检测器的共适应方面表现更好,并提高了测试性能。 代码可在以下地址获取:https://github.com/jasonustc/caffe-multigpu/tree/dropout。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.