计算机科学 > 机器学习
[提交于 2023年2月20日
]
标题: 联邦梯度匹配追踪
标题: Federated Gradient Matching Pursuit
摘要: 传统机器学习技术需要将所有训练数据集中到一个服务器或数据枢纽上。 由于通信技术的发展以及许多客户端上存在大量分散的数据,协作机器学习在提供隐私保护框架的同时已成为主要研究兴趣。 特别是,联邦学习(FL)提供了一种解决方案,在保持训练数据位于本地客户端的同时学习一个共享模型。 另一方面,在广泛的机器学习和信号处理应用中,期望的解自然具有某种结构,可以相对于某个字典表述为稀疏性。 这个问题可以被表述为带有稀疏性约束的优化问题,高效求解它一直是传统集中式环境中的主要研究课题之一。 在本文中,我们提出了一种新颖的算法框架,联邦梯度匹配追踪(FedGradMP),以解决联邦学习环境下的稀疏性约束最小化问题。 我们还将算法推广以适应各种实际的联邦学习场景,当每轮仅有一部分客户端参与时,当客户端的局部模型估计可能不准确时,或者当模型参数相对于一般字典是稀疏的时候。 我们的理论分析表明了所提出算法的线性收敛性。 进行了多种数值实验,以展示所提出的框架的巨大潜力——在许多重要场景中,无需复杂的参数调整,即可在通信轮次和计算时间上实现快速收敛。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.