Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cond-mat > arXiv:2501.01853

帮助 | 高级搜索

凝聚态物理 > 无序系统与神经网络

arXiv:2501.01853 (cond-mat)
[提交于 2025年1月3日 (v1) ,最后修订 2025年1月6日 (此版本, v2)]

标题: 具有内在梯度下降适应的自学习磁霍普菲尔德神经网络

标题: A self-learning magnetic Hopfield neural network with intrinsic gradient descent adaption

Authors:Chang Niu, Huanyu Zhang, Chuanlong Xu, Wenjie Hu, Yunzhuo Wu, Yu Wu, Yadi Wang, Tong Wu, Yi Zhu, Yinyan Zhu, Wenbin Wang, Yizheng Wu, Lifeng Yin, Jiang Xiao, Weichao Yu, Hangwen Guo, Jian Shen
摘要: 利用物理材料和器件来模拟突触和神经元的物理神经网络,为实现人工神经网络提供了一种节能的方法。 然而,训练物理神经网络非常困难,并且严重依赖外部计算资源。 解决这一问题的一个新兴概念称为物理自学习,它使用内在物理参数作为可训练权重。 在外部输入(即训练数据)下,通过物理参数的自然演化实现训练,这些参数通过自主物理过程内在地适应现代学习规则,从而消除了对外部计算资源的需求。在这里,我们展示了一个真实的自旋电子系统,该系统模拟了霍普菲尔德神经网络(HNN),并通过物理过程的演化固有地执行无监督学习。 使用由磁性纹理定义的导电矩阵作为可训练权重,我们说明了在外部电压输入下,导电矩阵自然演化并以梯度下降的方式适应奥亚的学习算法。 自学习的HNN具有可扩展性,可以在高相似性的模式上实现联想记忆。 磁性纹理的快速自旋动力学和可重构性为在材料中直接实现高效自主训练提供了有利的平台。
摘要: Physical neural networks using physical materials and devices to mimic synapses and neurons offer an energy-efficient way to implement artificial neural networks. Yet, training physical neural networks are difficult and heavily relies on external computing resources. An emerging concept to solve this issue is called physical self-learning that uses intrinsic physical parameters as trainable weights. Under external inputs (i.e. training data), training is achieved by the natural evolution of physical parameters that intrinsically adapt modern learning rules via autonomous physical process, eliminating the requirements on external computation resources.Here, we demonstrate a real spintronic system that mimics Hopfield neural networks (HNN) and unsupervised learning is intrinsically performed via the evolution of physical process. Using magnetic texture defined conductance matrix as trainable weights, we illustrate that under external voltage inputs, the conductance matrix naturally evolves and adapts Oja's learning algorithm in a gradient descent manner. The self-learning HNN is scalable and can achieve associative memories on patterns with high similarities. The fast spin dynamics and reconfigurability of magnetic textures offer an advantageous platform towards efficient autonomous training directly in materials.
评论: 21页,5图
主题: 无序系统与神经网络 (cond-mat.dis-nn) ; 应用物理 (physics.app-ph)
引用方式: arXiv:2501.01853 [cond-mat.dis-nn]
  (或者 arXiv:2501.01853v2 [cond-mat.dis-nn] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.01853
通过 DataCite 发表的 arXiv DOI
期刊参考: Proc. Natl. Acad. Sci. U.S.A. 121 (51) e2416294121,(2024)
相关 DOI: https://doi.org/10.1073/pnas.2416294121
链接到相关资源的 DOI

提交历史

来自: Huanyu Zhang [查看电子邮件]
[v1] 星期五, 2025 年 1 月 3 日 15:08:06 UTC (886 KB)
[v2] 星期一, 2025 年 1 月 6 日 06:37:16 UTC (886 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
cond-mat.dis-nn
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cond-mat
physics
physics.app-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号