计算机科学 > 机器学习
[提交于 2025年8月7日
]
标题: pFedDSH:通过无数据子超网络在个性化联邦学习中实现知识迁移
标题: pFedDSH: Enabling Knowledge Transfer in Personalized Federated Learning through Data-free Sub-Hypernetwork
摘要: 联邦学习(FL)允许在不共享原始数据的情况下在分布式客户端之间进行协作模型训练,提供了显著的隐私优势。 然而,大多数现有的个性化联邦学习(pFL)方法假设客户端参与是静态的,这并不反映现实场景,其中新客户端可能会持续加入联邦系统(即动态客户端接入)。 在本文中,我们探讨了一个实际场景,在该场景中,新的客户端批次被逐步引入,而学习任务保持不变。 这种动态环境带来了各种挑战,包括在不重新训练的情况下保持现有客户端的性能,并在客户端批次之间实现高效的知识迁移。 为了解决这些问题,我们提出了个性化联邦无数据子超网络(pFedDSH),这是一种基于中心超网络的新框架,通过嵌入向量为每个客户端生成个性化模型。 为了保持现有客户端的知识稳定性,pFedDSH结合了批次特定的掩码,这些掩码激活神经元子集以保留知识。 此外,我们引入了一种受DeepInversion启发的无数据重放策略,以促进后向迁移,提高现有客户端的性能而不损害隐私。 在CIFAR-10、CIFAR-100和Tiny-ImageNet上进行的大量实验表明,pFedDSH在我们的研究场景中优于最先进的pFL和联邦持续学习基线。 我们的方法在现有客户端上实现了稳健的性能稳定性,同时实现了新客户端的适应性和神经资源的高效利用。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.