计算机科学 > 机器学习
[提交于 2020年2月29日
(v1)
,最后修订 2021年1月29日 (此版本, v2)]
标题: 用户级隐私保护联邦学习:分析与性能优化
标题: User-Level Privacy-Preserving Federated Learning: Analysis and Performance Optimization
摘要: 联邦学习(FL)作为一种协作机器学习框架,能够在将数据训练成有用模型的同时,保护移动终端(MTs)的私有数据。 然而,从信息论的角度来看,好奇的服务器仍有可能通过MTs上传的共享模型推断出私有信息。 为了解决这个问题,我们首先利用局部差分隐私(LDP)的概念,并通过在上传到服务器之前向共享模型中添加人工噪声,提出了一种用户级差分隐私(UDP)算法。 根据我们的分析,UDP框架可以通过调整人工噪声过程的方差,实现对第$i$个MT的$(\epsilon_{i}, \delta_{i})$-LDP隐私保护水平。 随后,我们推导了UDP算法的理论收敛上界。 它表明存在一个最优的通信轮数以达到最佳的学习性能。 更重要的是,我们提出了一种通信轮数折扣(CRD)方法。 与启发式搜索方法相比,所提出的CRD方法可以在搜索的计算复杂性和收敛性能之间实现更好的权衡。 大量实验表明,使用所提CRD方法的UDP算法可以有效提高给定隐私保护水平下的训练效率和模型质量。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.