计算机科学 > 机器学习
[提交于 2025年5月29日
]
标题: 基于二阶方法的联邦学习快速训练
标题: Accelerated Training of Federated Learning via Second-Order Methods
摘要: 本文探讨了联邦学习(FL)中的二阶优化方法,解决了全局模型达到最优性能所需的收敛速度慢和通信轮次数过多的关键挑战。尽管现有的联邦学习综述主要关注与统计异构性、设备标签异构性以及一阶联邦学习方法中的隐私和安全问题相关的挑战,但对模型训练缓慢的问题关注较少。这种缓慢的训练通常会导致需要过多的通信轮次或增加通信成本,特别是在客户端数据高度异构的情况下。本文研究了利用二阶优化加速训练过程的各种联邦学习方法。我们对最先进的二阶联邦学习方法进行了全面分类,并基于全局模型的收敛速度、计算成本、内存使用、传输开销和泛化能力比较了它们的性能。我们的研究结果表明,在联邦学习中通过二阶优化引入Hessian曲率的潜力,并强调了高效利用Hessian及其逆矩阵在联邦学习中的关键挑战。这项工作为未来旨在开发可扩展且高效的联邦优化方法以改进联邦学习中全局模型训练的研究奠定了基础。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.