Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.05157

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2508.05157 (cs)
[提交于 2025年8月7日 ]

标题: pFedDSH:通过无数据子超网络在个性化联邦学习中实现知识迁移

标题: pFedDSH: Enabling Knowledge Transfer in Personalized Federated Learning through Data-free Sub-Hypernetwork

Authors:Thinh Nguyen, Le Huy Khiem, Van-Tuan Tran, Khoa D Doan, Nitesh V Chawla, Kok-Seng Wong
摘要: 联邦学习(FL)允许在不共享原始数据的情况下在分布式客户端之间进行协作模型训练,提供了显著的隐私优势。 然而,大多数现有的个性化联邦学习(pFL)方法假设客户端参与是静态的,这并不反映现实场景,其中新客户端可能会持续加入联邦系统(即动态客户端接入)。 在本文中,我们探讨了一个实际场景,在该场景中,新的客户端批次被逐步引入,而学习任务保持不变。 这种动态环境带来了各种挑战,包括在不重新训练的情况下保持现有客户端的性能,并在客户端批次之间实现高效的知识迁移。 为了解决这些问题,我们提出了个性化联邦无数据子超网络(pFedDSH),这是一种基于中心超网络的新框架,通过嵌入向量为每个客户端生成个性化模型。 为了保持现有客户端的知识稳定性,pFedDSH结合了批次特定的掩码,这些掩码激活神经元子集以保留知识。 此外,我们引入了一种受DeepInversion启发的无数据重放策略,以促进后向迁移,提高现有客户端的性能而不损害隐私。 在CIFAR-10、CIFAR-100和Tiny-ImageNet上进行的大量实验表明,pFedDSH在我们的研究场景中优于最先进的pFL和联邦持续学习基线。 我们的方法在现有客户端上实现了稳健的性能稳定性,同时实现了新客户端的适应性和神经资源的高效利用。
摘要: Federated Learning (FL) enables collaborative model training across distributed clients without sharing raw data, offering a significant privacy benefit. However, most existing Personalized Federated Learning (pFL) methods assume a static client participation, which does not reflect real-world scenarios where new clients may continuously join the federated system (i.e., dynamic client onboarding). In this paper, we explore a practical scenario in which a new batch of clients is introduced incrementally while the learning task remains unchanged. This dynamic environment poses various challenges, including preserving performance for existing clients without retraining and enabling efficient knowledge transfer between client batches. To address these issues, we propose Personalized Federated Data-Free Sub-Hypernetwork (pFedDSH), a novel framework based on a central hypernetwork that generates personalized models for each client via embedding vectors. To maintain knowledge stability for existing clients, pFedDSH incorporates batch-specific masks, which activate subsets of neurons to preserve knowledge. Furthermore, we introduce a data-free replay strategy motivated by DeepInversion to facilitate backward transfer, enhancing existing clients' performance without compromising privacy. Extensive experiments conducted on CIFAR-10, CIFAR-100, and Tiny-ImageNet demonstrate that pFedDSH outperforms the state-of-the-art pFL and Federated Continual Learning baselines in our investigation scenario. Our approach achieves robust performance stability for existing clients, as well as adaptation for new clients and efficient utilization of neural resources.
评论: 12页,4图
主题: 机器学习 (cs.LG)
ACM 类: C.2.4; I.2.11
引用方式: arXiv:2508.05157 [cs.LG]
  (或者 arXiv:2508.05157v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.05157
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Thinh Nguyen [查看电子邮件]
[v1] 星期四, 2025 年 8 月 7 日 08:43:02 UTC (2,075 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号