Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2508.10765

帮助 | 高级搜索

数学 > 动力系统

arXiv:2508.10765 (math)
[提交于 2025年8月14日 ]

标题: 学习霍普菲尔德神经网络中的记忆与遗忘:分岔机制、吸引子和盆地

标题: Memorisation and forgetting in a learning Hopfield neural network: bifurcation mechanisms, attractors and basins

Authors:Adam E. Essex (1), Natalia B. Janson (1), Rachel A. Norris (1), Alexander G. Balanov (1) ((1) Loughborough University, England)
摘要: 尽管基于人工神经网络(ANNs)的人工智能出现了爆炸性增长,但这些网络被用作“黑箱”,因为在学习过程中,它们如何形成记忆或产生不需要的特征,包括虚假记忆和灾难性遗忘,尚不清楚。 关于学习ANNs的孤立方面有大量研究,但由于其高维度和非线性,全面分析仍是一个挑战。 在ANNs中,知识被认为存在于连接权重或吸引子盆地中,但这两种范式并未明确联系。 在此,我们通过揭示导致吸引子形成和破坏及其盆地边界分岔的机制,全面分析了在Hebbian学习下81个神经元Hopfield网络中的记忆形成机制。 我们表明,施加的刺激通过影响连接权重的演化,诱导出一个分叉,然后是鞍点分叉的级联,创建新的吸引子及其盆地,这些盆地可以编码真实或虚假的记忆,并导致旧记忆的突然消失(灾难性遗忘)。 在成功学习的情况下,新类别由新诞生的点吸引子的盆地表示,其边界由新鞍点的稳定流形表示。 通过这种方式,记忆和遗忘代表了同一机制的两种表现形式。 我们分析高维学习ANNs的策略是通用的,适用于任何形式的循环ANNs。 所展示的记忆形成和灾难性遗忘的机制为更广泛的循环ANNs的操作提供了见解,并可能有助于开发减轻其缺陷的方法。
摘要: Despite explosive expansion of artificial intelligence based on artificial neural networks (ANNs), these are employed as "black boxes'', as it is unclear how, during learning, they form memories or develop unwanted features, including spurious memories and catastrophic forgetting. Much research is available on isolated aspects of learning ANNs, but due to their high dimensionality and non-linearity, their comprehensive analysis remains a challenge. In ANNs, knowledge is thought to reside in connection weights or in attractor basins, but these two paradigms are not linked explicitly. Here we comprehensively analyse mechanisms of memory formation in an 81-neuron Hopfield network undergoing Hebbian learning by revealing bifurcations leading to formation and destruction of attractors and their basin boundaries. We show that, by affecting evolution of connection weights, the applied stimuli induce a pitchfork and then a cascade of saddle-node bifurcations creating new attractors with their basins that can code true or spurious memories, and an abrupt disappearance of old memories (catastrophic forgetting). With successful learning, new categories are represented by the basins of newly born point attractors, and their boundaries by the stable manifolds of new saddles. With this, memorisation and forgetting represent two manifestations of the same mechanism. Our strategy to analyse high-dimensional learning ANNs is universal and applicable to recurrent ANNs of any form. The demonstrated mechanisms of memory formation and of catastrophic forgetting shed light on the operation of a wider class of recurrent ANNs and could aid the development of approaches to mitigate their flaws.
评论: 19页,14图。以下文章已提交至《Chaos: 非线性科学跨学科杂志》。发表后,可在https://pubs.aip.org/aip/cha找到。
主题: 动力系统 (math.DS) ; 机器学习 (cs.LG); 适应性与自组织系统 (nlin.AO)
MSC 类: 37N99 (primary) 68T07, 68T05 (secondary)
引用方式: arXiv:2508.10765 [math.DS]
  (或者 arXiv:2508.10765v1 [math.DS] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.10765
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Adam Essex [查看电子邮件]
[v1] 星期四, 2025 年 8 月 14 日 15:48:39 UTC (23,361 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math.DS
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
cs.LG
math
nlin
nlin.AO

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号