Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2507.05505

帮助 | 高级搜索

数学 > 动力系统

arXiv:2507.05505 (math)
[提交于 2025年7月7日 ]

标题: 动态原型分析:自主计算

标题: Dynamical Archetype Analysis: Autonomous Computation

Authors:Abel Sagodi, Il Memming Park
摘要: 研究神经计算旨在将神经系统视为信息处理机器来理解其功能。 神经系统无疑是复杂的,需要有原则和自动化的工具来抽象细节,以组织和逐步建立直觉。 我们认为,具有相同有效行为的系统应由其理想代表,即原型,来抽象,该原型由其渐近动力学结构定义。 我们提出了一组典型的计算库和一种新的差异度量,使我们能够通过显式考虑破坏拓扑共轭的变形以及保持拓扑共轭的微分同胚,根据其有效行为对系统进行分组。 所提出的差异度量可以从观察到的轨迹中估计得出。 数值实验展示了我们方法克服现有(不)相似度量在近似连续吸引子和高维循环神经网络中之前报道的脆弱性的能力。 尽管我们的实验集中在工作记忆系统上,但我们的理论方法自然可以扩展到生物和人工神经系统中循环动力学的一般机制解释。 我们认为,抽象的动力学原型,而不是详细的动力学系统,为描述神经计算提供了更有用的词汇。
摘要: The study of neural computation aims to understand the function of a neural system as an information processing machine. Neural systems are undoubtedly complex, necessitating principled and automated tools to abstract away details to organize and incrementally build intuition. We argue that systems with the same effective behavior should be abstracted by their ideal representative, i.e., archetype, defined by its asymptotic dynamical structure. We propose a library of archetypical computations and a new measure of dissimilarity that allows us to group systems based on their effective behavior by explicitly considering both deformations that break topological conjugacy as well as diffeomorphisms that preserve it. The proposed dissimilarity can be estimated from observed trajectories. Numerical experiments demonstrate our method's ability to overcome previously reported fragility of existing (dis)similarity measures for approximate continuous attractors and high-dimensional recurrent neural networks. Although our experiments focus on working memory systems, our theoretical approach naturally extends to general mechanistic interpretation of recurrent dynamics in both biological and artificial neural systems. We argue that abstract dynamical archetypes, rather than detailed dynamical systems, offer a more useful vocabulary for describing neural computation.
主题: 动力系统 (math.DS) ; 神经与认知 (q-bio.NC)
MSC 类: 37C70, 37N25, 37M99
引用方式: arXiv:2507.05505 [math.DS]
  (或者 arXiv:2507.05505v1 [math.DS] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.05505
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Abel Sagodi [查看电子邮件]
[v1] 星期一, 2025 年 7 月 7 日 22:01:13 UTC (11,201 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math.DS
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
math
q-bio
q-bio.NC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号