计算机科学 > 机器学习
[提交于 2025年8月24日
]
标题: FedERL:联邦高效鲁棒学习用于常见损坏
标题: FedERL: Federated Efficient and Robust Learning for Common Corruptions
摘要: 联邦学习(FL)在保护数据隐私的同时加速了深度学习模型在边缘设备上的部署。 然而,由于客户端计算资源的限制,以及对常见损坏(如噪声、模糊和天气影响)缺乏鲁棒性,FL系统面临挑战。 现有的鲁棒训练方法计算成本高,不适合资源受限的客户端。 我们提出了FedERL,即联邦高效鲁棒学习,作为首次在客户端时间和能量约束下明确解决损坏鲁棒性的作品。 其核心是,FedERL在服务器端采用一种新颖的数据无关鲁棒训练(DART)方法,以在不访问训练数据的情况下增强鲁棒性。 这样,FedERL确保客户端没有鲁棒性开销。 大量实验表明 FedERL能够在传统鲁棒训练方法所需时间和能量成本的一小部分内处理常见损坏。 在时间和能量预算有限的场景中,FedERL的性能优于传统鲁棒训练,使其成为现实世界 FL应用的实际且可扩展的解决方案。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.