Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2108.01210

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:2108.01210 (q-bio)
[提交于 2021年8月2日 ]

标题: 基于神经数据变压器的神经种群活动表示学习

标题: Representation learning for neural population activity with Neural Data Transformers

Authors:Joel Ye, Chethan Pandarinath
摘要: 神经种群活动被理论认为反映了潜在的动力学结构。 这种结构可以使用具有显式动态的状态空间模型准确捕捉,例如基于循环神经网络(RNNs)的模型。 然而,使用循环结构来显式建模动态需要数据的顺序处理,这会减慢实时应用,如脑机接口。 在这里,我们介绍了神经数据变换器(NDT),一种非循环的替代方法。 我们通过将NDT应用于具有已知动态的合成数据集以及在抓取任务中来自猴子运动皮层的数据来测试其捕捉自主动力学系统的能力,这些数据由RNNs很好地建模。 NDT对这些数据集的建模效果与最先进的循环模型相当。 此外,其非循环性使得推理时间为3.9毫秒,完全在实时应用的循环时间范围内,并且比猴子抓取数据集上的循环基线快了6倍以上。 这些结果表明,不需要显式动力学模型来建模自主的神经种群动态。 代码:https://github.com/snel-repo/neural-data-transformers
摘要: Neural population activity is theorized to reflect an underlying dynamical structure. This structure can be accurately captured using state space models with explicit dynamics, such as those based on recurrent neural networks (RNNs). However, using recurrence to explicitly model dynamics necessitates sequential processing of data, slowing real-time applications such as brain-computer interfaces. Here we introduce the Neural Data Transformer (NDT), a non-recurrent alternative. We test the NDT's ability to capture autonomous dynamical systems by applying it to synthetic datasets with known dynamics and data from monkey motor cortex during a reaching task well-modeled by RNNs. The NDT models these datasets as well as state-of-the-art recurrent models. Further, its non-recurrence enables 3.9ms inference, well within the loop time of real-time applications and more than 6 times faster than recurrent baselines on the monkey reaching dataset. These results suggest that an explicit dynamics model is not necessary to model autonomous neural population dynamics. Code: https://github.com/snel-repo/neural-data-transformers
主题: 神经与认知 (q-bio.NC) ; 机器学习 (cs.LG)
引用方式: arXiv:2108.01210 [q-bio.NC]
  (或者 arXiv:2108.01210v1 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.2108.01210
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.51628/001c.27358
链接到相关资源的 DOI

提交历史

来自: Joel Ye [查看电子邮件]
[v1] 星期一, 2021 年 8 月 2 日 23:36:39 UTC (764 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
q-bio
< 上一篇   |   下一篇 >
新的 | 最近的 | 2021-08
切换浏览方式为:
cs
cs.LG
q-bio.NC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号