计算机科学 > 机器学习
[提交于 2020年12月15日
]
标题: 低成本的联邦学习设计
标题: Cost-Effective Federated Learning Design
摘要: 联邦学习(FL)是一种分布式学习范式,使大量设备能够在不共享原始数据的情况下协作学习一个模型。 尽管其在实际应用中具有高效性和有效性,但设备上的迭代学习过程在学习时间和能耗方面产生了相当大的成本,这在很大程度上取决于每轮训练中选择的客户端数量和本地迭代次数。 在本文中,我们分析如何设计自适应FL,以最优地选择这些关键控制变量,从而在确保收敛的前提下最小化总成本。 理论上,我们通过收敛上界,分析性地建立了总成本与控制变量之间的关系。 为了高效解决成本最小化问题,我们开发了一种低成本的基于采样的算法,用于学习与收敛相关的未知参数。 我们推导出重要的解决方案属性,这些属性能够有效识别不同度量偏好下的设计原则。 在实践中,我们在模拟环境和硬件原型上评估了我们的理论结果。 实验证据验证了我们推导的属性,并表明我们的解决方案在各种数据集、不同的机器学习模型以及异构系统设置下都能实现接近最优的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.