计算机科学 > 神经与进化计算
[提交于 2025年7月29日
]
标题: 海布记忆增强型循环网络:深度学习中的痕迹神经元
标题: Hebbian Memory-Augmented Recurrent Networks: Engram Neurons in Deep Learning
摘要: 尽管在各种任务中取得了成功,当前的人工循环网络架构主要依赖于隐式的隐藏状态记忆,这限制了它们的可解释性以及建模长距离依赖关系的能力。 相比之下,生物神经系统使用显式的、关联的记忆痕迹(即,印迹)通过赫布突触可塑性得到加强,并在回忆期间稀疏激活。 受这些神经生物学见解的启发,我们引入了印迹神经网络(ENN),这是一种新的循环架构,结合了显式的、可微分的记忆矩阵,具有赫布可塑性和稀疏的、注意力驱动的检索机制。 ENN通过动态赫布痕迹显式地建模记忆形成和回忆,与传统RNN变体相比,提高了透明度和可解释性。 我们在三个经典基准上评估了ENN架构:MNIST数字分类、CIFAR-10图像序列建模和WikiText-103语言建模。 我们的实证结果表明,ENN在准确性和泛化性能方面与传统的RNN、GRU和LSTM架构相当,所有模型在大规模WikiText-103任务上收敛到相似的准确率和困惑度。 同时,ENN通过可观测的记忆动态显著提高了可解释性。 赫布痕迹可视化进一步揭示了生物上合理的、结构化的记忆形成过程,验证了受神经科学启发的机制在指导更可解释和稳健的深度学习模型发展方面的潜力。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.