计算机科学 > 机器学习
[提交于 2024年8月30日
]
标题: 在定点算术下量化神经网络的表达能力
标题: On Expressive Power of Quantized Neural Networks under Fixed-Point Arithmetic
摘要: 关于神经网络表达能力的研究通常考虑实参数和没有舍入误差的操作。在这项工作中,我们研究了在可能由于舍入而产生错误的离散定点参数和定点操作下的量化网络的通用逼近性质。我们首先给出了量化网络通用逼近的定点算术和激活函数的一个必要条件和一个充分条件。然后,我们证明了许多流行的激活函数满足我们的充分条件,例如Sigmoid、ReLU、ELU、SoftPlus、SiLU、Mish和GELU。换句话说,使用这些激活函数的网络能够实现通用逼近。我们进一步表明,在激活函数的一个温和条件下,我们的必要条件和充分条件是一致的:例如,对于激活函数$\sigma$,存在一个定点数$x$满足$\sigma(x)=0$。也就是说,我们找到了一类广泛激活函数的必要且充分条件。最后,我们展示了即使在$\{-1,1\}$中使用二进制权重的量化网络也可以对实际激活函数实现通用逼近。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.