计算机科学 > 机器学习
[提交于 2025年6月26日
]
标题: 一种在概念漂移下的联邦学习的信息论分析
标题: An Information-Theoretic Analysis for Federated Learning under Concept Drift
摘要: 最近在联邦学习(FL)中的研究通常在静态数据集上训练模型。 然而,现实世界的数据往往以流的形式出现,分布会发生变化,导致性能下降,这种现象称为概念漂移。 本文使用信息论分析了概念漂移下的FL性能,并提出了一种算法来缓解性能下降。 我们将概念漂移建模为马尔可夫链,并引入\emph{平稳推广 误差}来评估模型捕捉未来未见数据特征的能力。 其上界通过KL散度和互信息推导得出。 我们研究了三种漂移模式(周期性、渐进性和随机性)及其对FL性能的影响。 受此启发,我们提出了一种算法,通过KL散度和互信息对经验风险最小化方法进行正则化,从而提高长期性能。 我们还通过识别帕累托前沿探讨了性能与成本之间的权衡。 为了验证我们的方法,我们使用树莓派4设备构建了一个FL测试平台。 实验结果与理论发现一致,证实了漂移模式对性能有显著影响。 我们的方法在这三种模式下始终优于现有方法,证明了其在适应FL中概念漂移方面的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.