Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.00598

帮助 | 高级搜索

计算机科学 > 神经与进化计算

arXiv:2507.00598 (cs)
[提交于 2025年7月1日 ]

标题: 高分辨率的空间记忆需要类似网格细胞的神经编码

标题: High-resolution spatial memory requires grid-cell-like neural codes

Authors:Madison Cotteret, Christopher J. Kymn, Hugh Greatorex, Martin Ziegler, Elisabetta Chicca, Friedrich T. Sommer
摘要: 连续吸引子网络(CANs)被广泛用于模拟大脑如何通过持续的循环活动暂时保留连续的行为变量,例如动物在环境中的位置。 然而,这种记忆机制对即使是很小的缺陷也非常敏感,例如噪声或异质性,这些在生物系统中都很常见。 以前的研究表明,将连续体离散化为一组有限的离散吸引子状态可以提高对这些缺陷的鲁棒性,但必然会降低所表示变量的分辨率,从而在稳定性和分辨率之间产生权衡。 我们表明,对于使用单峰凸起类似编码的CANs,如传统模型中的情况,这种稳定性和分辨率的权衡最为严重。 为了克服这一点,我们研究了基于随机特征嵌入的稀疏二进制分布式编码,其中神经元具有空间周期性的感受野。 我们通过理论和仿真证明,这样的网格细胞类似编码使CANs能够同时实现高稳定性和高分辨率。 该模型扩展到将任意非线性流形嵌入到CAN中,例如球体或环面,并将线性路径积分推广到沿自由编程的流形上向量场的积分。 总之,这项工作提供了一种理论,说明大脑如何以高分辨率稳健地表示连续变量,并在任务相关的流形上执行灵活的计算。
摘要: Continuous attractor networks (CANs) are widely used to model how the brain temporarily retains continuous behavioural variables via persistent recurrent activity, such as an animal's position in an environment. However, this memory mechanism is very sensitive to even small imperfections, such as noise or heterogeneity, which are both common in biological systems. Previous work has shown that discretising the continuum into a finite set of discrete attractor states provides robustness to these imperfections, but necessarily reduces the resolution of the represented variable, creating a dilemma between stability and resolution. We show that this stability-resolution dilemma is most severe for CANs using unimodal bump-like codes, as in traditional models. To overcome this, we investigate sparse binary distributed codes based on random feature embeddings, in which neurons have spatially-periodic receptive fields. We demonstrate theoretically and with simulations that such grid-cell-like codes enable CANs to achieve both high stability and high resolution simultaneously. The model extends to embedding arbitrary nonlinear manifolds into a CAN, such as spheres or tori, and generalises linear path integration to integration along freely-programmable on-manifold vector fields. Together, this work provides a theory of how the brain could robustly represent continuous variables with high resolution and perform flexible computations over task-relevant manifolds.
评论: 14页,4张图。补充材料:11页,5张图
主题: 神经与进化计算 (cs.NE) ; 人工智能 (cs.AI); 符号计算 (cs.SC)
引用方式: arXiv:2507.00598 [cs.NE]
  (或者 arXiv:2507.00598v1 [cs.NE] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.00598
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Madison Cotteret [查看电子邮件]
[v1] 星期二, 2025 年 7 月 1 日 09:29:05 UTC (5,404 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.NE
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
cs.SC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号