计算机科学 > 机器学习
[提交于 2021年8月10日
]
标题: FedPAGE:一种用于通信高效的联邦学习的快速局部随机梯度方法
标题: FedPAGE: A Fast Local Stochastic Gradient Method for Communication-Efficient Federated Learning
摘要: 联邦平均(FedAvg,也称为本地SGD)(McMahan等,2017)是一种经典的联邦学习算法,其中客户端在将更新发送到协调服务器之前运行多个本地SGD步骤。我们提出了一种新的联邦学习算法FedPAGE,通过利用最近的最优PAGE方法(Li等,2021)而不是FedAvg中的普通SGD,进一步减少了通信复杂性。我们证明了对于联邦凸和非凸优化,FedPAGE使用的通信轮次比之前的本地方法少得多。 具体来说,1)在凸设置中,FedPAGE的通信轮数为$O(\frac{N^{3/4}}{S\epsilon})$,相比SCAFFOLD(Karimireddy等,2020)的最佳已知结果$O(\frac{N}{S\epsilon})$提高了一个因子$N^{1/4}$,其中$N$是客户端的总数(在联邦学习中通常非常大),$S$是每轮通信中采样的客户端子集,$\epsilon$是目标误差;2)在非凸设置中,FedPAGE的通信轮数为$O(\frac{\sqrt{N}+S}{S\epsilon^2})$,相比SCAFFOLD(Karimireddy等,2020)的最佳已知结果$O(\frac{N^{2/3}}{S^{2/3}\epsilon^2})$提高了一个因子$N^{1/6}S^{1/3}$,如果采样的客户端$S\leq \sqrt{N}$。 请注意,在两种设置中,每轮通信成本对于FedPAGE和SCAFFOLD来说是相同的。 因此,FedPAGE在联邦凸和非凸优化的通信复杂性方面取得了新的最先进结果。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.