计算机科学 > 机器学习
[提交于 2025年6月25日
]
标题: FedBKD:在非独立同分布数据上实现泛化与个性化的知识蒸馏联邦学习
标题: FedBKD: Distilled Federated Learning to Embrace Gerneralization and Personalization on Non-IID Data
摘要: 联邦学习(FL)是一种去中心化的协同机器学习(ML)技术。 它为工业ML实践中的孤立数据孤岛和数据隐私泄露问题提供了解决方案。 FL中的一个主要挑战是处理非独立同分布(non-IID)的数据。 当前的解决方案要么专注于构建一个全能的全局模型,要么定制个性化的本地模型。 很少有方法能同时提供一个泛化良好的全局模型和表现良好的本地模型。 此外,许多解决non-IID问题的FL方案得益于引入公共数据集。 然而,这也会增加数据泄露的风险。 为了解决这些问题,我们提出了一种新颖的无数据蒸馏框架,联邦双向知识蒸馏(FedBKD)。 具体来说,我们训练生成对抗网络(GAN)来生成合成数据。 在GAN训练过程中,本地模型作为判别器,其参数被冻结。 然后将合成数据用于全局模型和本地模型之间的双向蒸馏,以实现知识交互,从而提升双方的性能。 我们在不同non-IID设置下的4个基准测试中进行了广泛的实验。 结果表明,FedBKD在每种情况下都达到了最先进的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.