数学 > 动力系统
[提交于 2025年8月14日
]
标题: 学习霍普菲尔德神经网络中的记忆与遗忘:分岔机制、吸引子和盆地
标题: Memorisation and forgetting in a learning Hopfield neural network: bifurcation mechanisms, attractors and basins
摘要: 尽管基于人工神经网络(ANNs)的人工智能出现了爆炸性增长,但这些网络被用作“黑箱”,因为在学习过程中,它们如何形成记忆或产生不需要的特征,包括虚假记忆和灾难性遗忘,尚不清楚。 关于学习ANNs的孤立方面有大量研究,但由于其高维度和非线性,全面分析仍是一个挑战。 在ANNs中,知识被认为存在于连接权重或吸引子盆地中,但这两种范式并未明确联系。 在此,我们通过揭示导致吸引子形成和破坏及其盆地边界分岔的机制,全面分析了在Hebbian学习下81个神经元Hopfield网络中的记忆形成机制。 我们表明,施加的刺激通过影响连接权重的演化,诱导出一个分叉,然后是鞍点分叉的级联,创建新的吸引子及其盆地,这些盆地可以编码真实或虚假的记忆,并导致旧记忆的突然消失(灾难性遗忘)。 在成功学习的情况下,新类别由新诞生的点吸引子的盆地表示,其边界由新鞍点的稳定流形表示。 通过这种方式,记忆和遗忘代表了同一机制的两种表现形式。 我们分析高维学习ANNs的策略是通用的,适用于任何形式的循环ANNs。 所展示的记忆形成和灾难性遗忘的机制为更广泛的循环ANNs的操作提供了见解,并可能有助于开发减轻其缺陷的方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.