计算机科学 > 硬件架构
[提交于 2025年7月21日
]
标题: 当流水线内存加速器遇到脉冲直接反馈对齐:一种类脑边缘计算的协同设计
标题: When Pipelined In-Memory Accelerators Meet Spiking Direct Feedback Alignment: A Co-Design for Neuromorphic Edge Computing
摘要: 脉冲神经网络(SNNs)由于其节能和事件驱动的处理能力,越来越受到在资源受限的边缘设备上部署的青睐。 然而,由于传统反向传播算法在基于脉冲系统的适应中计算强度大,训练SNN仍然具有挑战性。 在本文中,我们提出了一种新颖的软硬件协同设计,引入了一种硬件友好的训练算法,即脉冲直接反馈对齐(SDFA),并在基于电阻随机存取存储器(RRAM)的内存内计算(IMC)架构上实现,称为PipeSDFA,以加速SNN训练。 在软件方面,通过消除顺序误差传播,SDFA降低了SNN训练的计算复杂度。 在硬件方面,基于IMC架构设计了一个三级流水数据流,以并行化训练过程。 实验结果表明,与基线相比,PipeSDFA训练加速器在五个数据集上的准确率损失不到2%,同时与PipeLayer相比,训练时间和能耗分别减少了1.1X~10.5X和1.37X~2.1X。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.