Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.21474

帮助 | 高级搜索

计算机科学 > 神经与进化计算

arXiv:2507.21474 (cs)
[提交于 2025年7月29日 ]

标题: 海布记忆增强型循环网络:深度学习中的痕迹神经元

标题: Hebbian Memory-Augmented Recurrent Networks: Engram Neurons in Deep Learning

Authors:Daniel Szelogowski
摘要: 尽管在各种任务中取得了成功,当前的人工循环网络架构主要依赖于隐式的隐藏状态记忆,这限制了它们的可解释性以及建模长距离依赖关系的能力。 相比之下,生物神经系统使用显式的、关联的记忆痕迹(即,印迹)通过赫布突触可塑性得到加强,并在回忆期间稀疏激活。 受这些神经生物学见解的启发,我们引入了印迹神经网络(ENN),这是一种新的循环架构,结合了显式的、可微分的记忆矩阵,具有赫布可塑性和稀疏的、注意力驱动的检索机制。 ENN通过动态赫布痕迹显式地建模记忆形成和回忆,与传统RNN变体相比,提高了透明度和可解释性。 我们在三个经典基准上评估了ENN架构:MNIST数字分类、CIFAR-10图像序列建模和WikiText-103语言建模。 我们的实证结果表明,ENN在准确性和泛化性能方面与传统的RNN、GRU和LSTM架构相当,所有模型在大规模WikiText-103任务上收敛到相似的准确率和困惑度。 同时,ENN通过可观测的记忆动态显著提高了可解释性。 赫布痕迹可视化进一步揭示了生物上合理的、结构化的记忆形成过程,验证了受神经科学启发的机制在指导更可解释和稳健的深度学习模型发展方面的潜力。
摘要: Despite success across diverse tasks, current artificial recurrent network architectures rely primarily on implicit hidden-state memories, limiting their interpretability and ability to model long-range dependencies. In contrast, biological neural systems employ explicit, associative memory traces (i.e., engrams) strengthened through Hebbian synaptic plasticity and activated sparsely during recall. Motivated by these neurobiological insights, we introduce the Engram Neural Network (ENN), a novel recurrent architecture incorporating an explicit, differentiable memory matrix with Hebbian plasticity and sparse, attention-driven retrieval mechanisms. The ENN explicitly models memory formation and recall through dynamic Hebbian traces, improving transparency and interpretability compared to conventional RNN variants. We evaluate the ENN architecture on three canonical benchmarks: MNIST digit classification, CIFAR-10 image sequence modeling, and WikiText-103 language modeling. Our empirical results demonstrate that the ENN achieves accuracy and generalization performance broadly comparable to classical RNN, GRU, and LSTM architectures, with all models converging to similar accuracy and perplexity on the large-scale WikiText-103 task. At the same time, the ENN offers significant enhancements in interpretability through observable memory dynamics. Hebbian trace visualizations further reveal biologically plausible, structured memory formation processes, validating the potential of neuroscience-inspired mechanisms to inform the development of more interpretable and robust deep learning models.
评论: 20页,11图,4表
主题: 神经与进化计算 (cs.NE) ; 人工智能 (cs.AI); 信息检索 (cs.IR); 机器学习 (cs.LG); 神经与认知 (q-bio.NC)
ACM 类: I.2.0; I.2.4; I.2.6; I.2.m; E.1; E.2; E.4; H.3; J.3; J.4
引用方式: arXiv:2507.21474 [cs.NE]
  (或者 arXiv:2507.21474v1 [cs.NE] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.21474
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Daniel Szelogowski [查看电子邮件]
[v1] 星期二, 2025 年 7 月 29 日 03:34:32 UTC (1,031 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.NE
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.IR
cs.LG
q-bio
q-bio.NC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号