计算机科学 > 机器学习
[提交于 2025年6月26日
]
标题: AGTCNet:一种基于图-时间的合理运动想象脑电分类方法
标题: AGTCNet: A Graph-Temporal Approach for Principled Motor Imagery EEG Classification
摘要: 脑机接口(BCI)技术利用脑电图(EEG)标志着一项变革性创新,使运动障碍个体能够平等地与环境互动。尽管其具有令人鼓舞的潜力,但由于个体和时间上神经活动的固有复杂性和变异性,以及EEG硬件限制,开发主体不变和会话不变的BCI系统仍然是一个重大挑战。虽然之前的研究试图开发稳健的BCI系统,但现有方法在捕捉多通道EEG信号中的复杂时空依赖性方面仍然无效。本研究通过引入注意力图时序卷积网络(AGTCNet),填补了这一空白,这是一种用于运动想象EEG(MI-EEG)分类的新颖图时序模型。具体而言,AGTCNet利用EEG电极的拓扑配置作为归纳偏差,并集成图卷积注意网络(GCAT)以联合学习表达性的时空EEG表示。所提出的模型显著优于现有的MI-EEG分类器,在使用紧凑架构的同时实现了最先进的性能,证明了其在BCI部署中的有效性和实用性。在BCI竞赛IV数据集2a上,AGTCNet在主体无关分类中实现了66.82%的移动平均准确率,当微调用于主体特定分类时进一步提高到82.88%。在EEG运动运动/想象数据集上,AGTCNet分别实现了4类和2类主体无关分类的64.14%和85.22%的移动平均准确率,对于主体特定分类进一步提高到72.13%和90.54%。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.