计算机科学 > 机器学习
[提交于 2025年6月26日
]
标题: MAx-DNN:用于高效能DNN硬件加速器的多级算术近似
标题: MAx-DNN: Multi-Level Arithmetic Approximation for Energy-Efficient DNN Hardware Accelerators
摘要: 如今,深度神经网络(DNN)架构的快速增长已使其成为提供先进机器学习任务的默认方法,具有出色的准确性。 针对低功耗DNN计算,本文研究了DNN工作负载的细粒度错误弹性与硬件近似技术之间的相互作用,以实现更高的能源效率。 利用最先进的ROUP近似乘法器,我们根据我们的层、滤波器和内核级别的方法,系统地探索它们在网络中的细粒度分布,并检查它们对准确性和能耗的影响。 我们在CIFAR-10数据集上使用ResNet-8模型来评估我们的近似方法。 与基线量化模型相比,所提出的解决方案在最多4%的准确率损失下,可获得高达54%的能耗节省,同时与最先进的DNN近似方法相比,它提供了2倍的能耗节省且准确率更好。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.