计算机科学 > 机器学习
[提交于 2020年3月7日
(v1)
,最后修订 2022年3月29日 (此版本, v2)]
标题: 三元压缩用于高效通信的联邦学习
标题: Ternary Compression for Communication-Efficient Federated Learning
摘要: 在不同位置存储的大量数据上进行学习在许多现实应用中是必不可少的。 然而,由于智能移动设备和物联网设备的日益普及,对隐私和安全的需求不断增加,共享数据充满了挑战。 联邦学习通过在不将分布式在多个设备上的数据上传到中央服务器的情况下联合训练全局模型,为隐私保护和安全机器学习提供了一个潜在的解决方案。 然而,现有的大多数联邦学习工作采用的是全精度权重的机器学习模型,而且几乎所有这些模型都包含大量不需要传输到服务器的冗余参数,导致通信成本过高。 为了解决这个问题,我们提出了一种联邦训练的三值量化(FTTQ)算法,该算法通过客户端上的自学习量化因子优化量化网络。 给出了量化因子收敛性的理论证明、FTTQ的无偏性以及减少的权重发散性。 基于FTTQ,我们提出了一种三值联邦平均协议(T-FedAvg),以减少联邦学习系统的上行和下行通信。 进行了实证实验,在公开的数据集上训练广泛使用的深度学习模型,我们的结果表明,所提出的T-FedAvg在减少通信成本方面是有效的,并且与传统的联邦学习算法相比,在非独立同分布数据上甚至可以实现略微更好的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.