计算机科学 > 密码学与安全
[提交于 2025年7月18日
]
标题: FuSeFL:完全安全且可扩展的跨库联邦学习
标题: FuSeFL: Fully Secure and Scalable Cross-Silo Federated Learning
摘要: 联邦学习(FL)使协作模型训练成为可能,而无需集中客户端数据,这使其在隐私敏感领域具有吸引力。 虽然现有方法采用密码技术,如同态加密、差分隐私或安全多方计算来缓解推理攻击——包括模型逆向、成员推理和梯度泄露——但它们通常会遭受高计算、通信或内存开销的问题。 此外,许多方法忽视了全局模型本身的机密性,这可能是专有且敏感的。 这些挑战限制了安全联邦学习的实际应用,尤其是在涉及大规模数据集和严格合规要求的跨库部署中。 我们提出了FuSeFL,这是一种完全安全且可扩展的联邦学习方案,专为跨库环境设计。 FuSeFL使用轻量级安全多方计算(MPC)在客户端对之间分散训练,同时将服务器的角色限制为安全聚合。 这种设计消除了服务器瓶颈,避免了数据卸载,并在整个训练过程中保持数据、模型和更新的完全机密性。 FuSeFL能够抵御推理威胁,实现高达95%的通信延迟降低和50%的服务器内存使用减少,并在准确性上优于之前的保密联邦学习解决方案,证明了其在规模上的强大安全性和效率。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.