计算机科学 > 神经与进化计算
[提交于 2025年1月24日
(此版本)
, 最新版本 2025年5月19日 (v3)
]
标题: 具有分层内在兴奋性调制的循环脉冲网络用于模式学习
标题: A Recurrent Spiking Network with Hierarchical Intrinsic Excitability Modulation for Schema Learning
摘要: 模式是一种促进迁移学习的结构化知识形式,在神经科学和人工智能(AI)中正引起越来越多的关注。当前神经计算中的模式研究主要局限于单一的行为范式,并且严重依赖缺乏神经合理性和生物解释性的循环神经网络(RNNs)。为解决这些限制,本工作首先构建了一个通用的行为范式框架用于模式学习,并引入了三个新的认知任务,从而支持全面的模式探索。其次,我们提出了一种使用具有分层内在兴奋性调制的循环脉冲神经网络的新模型(HM-RSNNs)。该模型的顶层根据任务特定需求选择兴奋性特性,而底层则对这些特性进行微调以解决任务内问题。最后,进行了广泛的HM-RSNNs可视化分析,以展示其计算优势,跟踪模式学习过程中内在兴奋性的演变,并检查不同任务间的神经协调差异。受生物启发的损伤研究进一步揭示了模式内内在兴奋性的任务特定分布。实验结果表明,HM-RSNNs在所有任务中均显著优于RSNN基线,并在三个新的认知任务中超过了RNNs。此外,HM-RSNNs为模式学习背后的神经动力学提供了更深入的见解。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.