计算机科学 > 机器学习
[提交于 2016年10月31日
(v1)
,最后修订 2020年5月13日 (此版本, v3)]
标题: 用神经网络逼近自然函数时的深度-宽度权衡
标题: Depth-Width Tradeoffs in Approximating Natural Functions with Neural Networks
摘要: 我们为前馈神经网络提供了几个基于深度的分离结果,证明了使用更深的网络而非更浅的网络可以更好地近似各种类型的简单且自然的函数,即使较浅的网络规模大得多。 这包括球体和椭圆体的指示函数;相对于$L_1$范数具有径向对称性的非线性函数;以及平滑的非线性函数。 我们还表明,这些差距可以在实验中观察到:当训练神经网络学习单位球体的指示函数时,增加深度确实比增加宽度能实现更好的学习效果。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.