Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.12652v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.12652v1 (cs)
[提交于 2025年7月16日 ]

标题: 开放环和闭环肌电解码中的联邦学习:隐私与性能视角

标题: Federated Learning in Open- and Closed-Loop EMG Decoding: A Privacy and Performance Perspective

Authors:Kai Malcolm, César Uribe, Momona Yamagami
摘要: 侵入性和非侵入性神经接口作为下一代技术的高带宽输入设备具有前景。 然而,神经信号本质上编码了关于个体身份和健康状况的敏感信息,使得为解码器训练共享数据成为一项关键的隐私挑战。 联邦学习(FL),一种分布式、保护隐私的学习框架,提供了一个有希望的解决方案,但在闭环自适应神经接口中尚未被探索。 在这里,我们引入基于联邦学习的神经解码,并在开环和闭环场景中使用高维肌电信号系统地评估其性能和隐私。 在开环模拟中,FL显著优于本地学习基线,证明了其在高性能、隐私意识神经解码中的潜力。 相比之下,闭环用户研究需要调整FL方法以适应单用户、实时交互,这是标准FL不支持的场景。 这种修改导致本地学习解码器在闭环性能上超过了调整后的FL方法,但本地学习仍然存在更高的隐私风险。 我们的研究结果突显了实时自适应应用中的关键性能-隐私权衡,并表明需要专门为协同自适应、单用户应用设计的FL方法。
摘要: Invasive and non-invasive neural interfaces hold promise as high-bandwidth input devices for next-generation technologies. However, neural signals inherently encode sensitive information about an individual's identity and health, making data sharing for decoder training a critical privacy challenge. Federated learning (FL), a distributed, privacy-preserving learning framework, presents a promising solution, but it remains unexplored in closed-loop adaptive neural interfaces. Here, we introduce FL-based neural decoding and systematically evaluate its performance and privacy using high-dimensional electromyography signals in both open- and closed-loop scenarios. In open-loop simulations, FL significantly outperformed local learning baselines, demonstrating its potential for high-performance, privacy-conscious neural decoding. In contrast, closed-loop user studies required adapting FL methods to accommodate single-user, real-time interactions, a scenario not supported by standard FL. This modification resulted in local learning decoders surpassing the adapted FL approach in closed-loop performance, yet local learning still carried higher privacy risks. Our findings highlight a critical performance-privacy tradeoff in real-time adaptive applications and indicate the need for FL methods specifically designed for co-adaptive, single-user applications.
评论: 23页,7图
主题: 机器学习 (cs.LG) ; 密码学与安全 (cs.CR); 人机交互 (cs.HC)
引用方式: arXiv:2507.12652 [cs.LG]
  (或者 arXiv:2507.12652v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.12652
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Kai Malcolm [查看电子邮件]
[v1] 星期三, 2025 年 7 月 16 日 21:59:25 UTC (2,783 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CR
cs.HC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号