计算机科学 > 机器学习
[提交于 2025年7月16日
]
标题: 开放环和闭环肌电解码中的联邦学习:隐私与性能视角
标题: Federated Learning in Open- and Closed-Loop EMG Decoding: A Privacy and Performance Perspective
摘要: 侵入性和非侵入性神经接口作为下一代技术的高带宽输入设备具有前景。 然而,神经信号本质上编码了关于个体身份和健康状况的敏感信息,使得为解码器训练共享数据成为一项关键的隐私挑战。 联邦学习(FL),一种分布式、保护隐私的学习框架,提供了一个有希望的解决方案,但在闭环自适应神经接口中尚未被探索。 在这里,我们引入基于联邦学习的神经解码,并在开环和闭环场景中使用高维肌电信号系统地评估其性能和隐私。 在开环模拟中,FL显著优于本地学习基线,证明了其在高性能、隐私意识神经解码中的潜力。 相比之下,闭环用户研究需要调整FL方法以适应单用户、实时交互,这是标准FL不支持的场景。 这种修改导致本地学习解码器在闭环性能上超过了调整后的FL方法,但本地学习仍然存在更高的隐私风险。 我们的研究结果突显了实时自适应应用中的关键性能-隐私权衡,并表明需要专门为协同自适应、单用户应用设计的FL方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.