统计学 > 机器学习
[提交于 2019年3月28日
]
标题: 关于使用核激活函数学习的稳定性和泛化性
标题: On the Stability and Generalization of Learning with Kernel Activation Functions
摘要: 在这一简报中,我们研究了最近提出的一类非参数激活函数——核激活函数(KAFs)的泛化性质。 KAFs 在学习过程中引入额外的参数,以便在每个神经元的基础上单独调整非线性,通过每个激活值的廉价核展开实现这一点。 虽然这种灵活性的增加在实践中已被证明能带来显著改进,但其泛化能力的理论证明在文献中尚未得到解决。 在这里,我们利用关于通过随机梯度下降(SGD)训练的非凸模型稳定性性质的最新研究。 通过间接证明所考虑模型的两个关键平滑性质,我们证明了当用SGD以有限步数训练时,带有KAFs的神经网络能够很好地泛化。 有趣的是,我们的分析为选择该模型的一个超参数——标量高斯核的带宽——提供了指导。 简短的实验评估验证了这一证明。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.