计算机科学 > 机器学习
[提交于 2024年1月31日
]
标题: MP-SL:多跳并行拆分学习
标题: MP-SL: Multihop Parallel Split Learning
摘要: 联邦学习(FL)作为一种广泛采用的协议,因其在保持数据去中心化的同时促进机器学习(ML)模型的训练而脱颖而出。 然而,当处理参与设备异构性时会出现挑战,这会导致训练过程中的延迟,尤其是在资源有限的设备上。 此外,使用大量参数训练ML模型需要超出小型设备(如移动设备和物联网(IoT)设备)能力的计算和内存资源。 为了解决这些问题,引入了类似并行分割学习(SL)的技术,使多个资源受限的设备能够在资源丰富的计算节点的帮助下积极参与协同训练过程。 然而,并行SL的一个缺点是计算节点需要大量的内存分配,例如使用100个参与者训练VGG-19需要80 GB。 在本文中,我们介绍了多跳并行SL(MP-SL),这是一种模块化且可扩展的机器学习即服务(MLaaS)框架,旨在促进资源受限设备参与协同和分布式机器学习模型训练。 值得注意的是,为了减轻每个计算节点的内存需求,MP-SL支持多跳并行SL训练。 这涉及将模型分成多个部分,并以流水线方式利用多个计算节点。 大量实验验证了MP-SL处理系统异构性的能力,结果表明,多跳配置比水平扩展的一跳并行SL设置更高效,特别是在涉及更具成本效益的计算节点的场景中。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.