Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-bio > arXiv:2507.08402

帮助 | 高级搜索

定量生物学 > 神经与认知

arXiv:2507.08402 (q-bio)
[提交于 2025年7月11日 ]

标题: SPINT:用于一致皮层内运动解码的空间排列不变神经变换器

标题: SPINT: Spatial Permutation-Invariant Neural Transformer for Consistent Intracortical Motor Decoding

Authors:Trung Le, Hao Fang, Jingyuan Li, Tung Nguyen, Lu Mi, Amy Orsborn, Uygar S端mb端l, Eli Shlizerman
摘要: 皮层内脑机接口(iBCI)旨在从神经元群体活动中解码行为,使运动障碍患者恢复运动功能和交流能力。 长期iBCI中的一个关键挑战是神经记录的非平稳性,其中记录群体的组成和调谐特性在不同记录会话中不稳定。 现有方法尝试通过显式对齐技术来解决这个问题;然而,它们依赖于固定的神经身份,并需要测试时的标签或参数更新,这限制了它们在会话间的泛化能力,并在部署时增加了额外的计算负担。 在本工作中,我们引入了SPINT——一种空间排列不变的神经变换器框架,用于直接在无序的神经单元集合上进行行为解码。 我们方法的核心是一种新颖的上下文相关的的位置嵌入方案,该方案动态地推断单元特定的身份,从而实现在不同记录会话间的灵活泛化。 SPINT支持可变大小群体的推理,并允许使用少量未标记的测试会话数据进行无梯度的少样本适应。 为了进一步提高模型对群体变异性的鲁棒性,我们引入了动态通道丢弃,这是一种针对iBCI的正则化方法,在训练期间模拟群体组成的变动。 我们在FALCON基准的三个多会话数据集上评估了SPINT,涵盖了人类和非人类灵长类动物的连续运动解码任务。 SPINT表现出稳健的跨会话泛化能力,在不依赖测试时对齐和微调的情况下,优于现有的零样本和少样本无监督基线。 我们的工作为长期iBCI应用的稳健且可扩展的神经解码框架迈出了一步。
摘要: Intracortical Brain-Computer Interfaces (iBCI) aim to decode behavior from neural population activity, enabling individuals with motor impairments to regain motor functions and communication abilities. A key challenge in long-term iBCI is the nonstationarity of neural recordings, where the composition and tuning profiles of the recorded populations are unstable across recording sessions. Existing methods attempt to address this issue by explicit alignment techniques; however, they rely on fixed neural identities and require test-time labels or parameter updates, limiting their generalization across sessions and imposing additional computational burden during deployment. In this work, we introduce SPINT - a Spatial Permutation-Invariant Neural Transformer framework for behavioral decoding that operates directly on unordered sets of neural units. Central to our approach is a novel context-dependent positional embedding scheme that dynamically infers unit-specific identities, enabling flexible generalization across recording sessions. SPINT supports inference on variable-size populations and allows few-shot, gradient-free adaptation using a small amount of unlabeled data from the test session. To further promote model robustness to population variability, we introduce dynamic channel dropout, a regularization method for iBCI that simulates shifts in population composition during training. We evaluate SPINT on three multi-session datasets from the FALCON Benchmark, covering continuous motor decoding tasks in human and non-human primates. SPINT demonstrates robust cross-session generalization, outperforming existing zero-shot and few-shot unsupervised baselines while eliminating the need for test-time alignment and fine-tuning. Our work contributes an initial step toward a robust and scalable neural decoding framework for long-term iBCI applications.
主题: 神经与认知 (q-bio.NC) ; 机器学习 (cs.LG)
引用方式: arXiv:2507.08402 [q-bio.NC]
  (或者 arXiv:2507.08402v1 [q-bio.NC] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.08402
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Trung Le [查看电子邮件]
[v1] 星期五, 2025 年 7 月 11 日 08:20:19 UTC (5,571 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
q-bio.NC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.LG
q-bio

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号