计算机科学 > 机器学习
[提交于 2020年3月2日
(v1)
,最后修订 2020年7月20日 (此版本, v2)]
标题: 通过动力系统视角的神经网络深度-宽度权衡优化
标题: Better Depth-Width Trade-offs for Neural Networks through the lens of Dynamical Systems
摘要: 神经网络的表达能力作为其深度、宽度和激活单元类型的函数,一直是深度学习理论中的一个重要问题。 最近,通过与动力系统的新联系,利用连续映射 $f$的广义固定点概念,称为周期点,获得了 ReLU 网络的深度分离结果。 在本工作中,我们加强了与动力系统的联系,并在多个方面改进了现有的宽度下界。 我们的第一个主要结果是在更强的 $L^1$-近似误差概念下成立的特定周期宽度下界,而不是较弱的分类误差。 我们的第二个贡献是,在先前结果不适用的区域中,我们提供了更紧的宽度下界,仍然产生有意义的指数深度-宽度分离。 我们结果的一个副产品是,只要 $f$具有奇数周期,就存在一个表征深度-宽度权衡的通用常数。 技术上,我们的结果是通过揭示给定函数的以下三个量之间的更紧密联系得出的:其周期、其利普希茨常数以及该函数 $f$与自身复合时产生的振荡数量的增长率。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.