计算机科学 > 计算机视觉与模式识别
[提交于 2025年8月14日
]
标题: 基于客户端自适应焦点调制的可泛化的联邦学习
标题: Generalizable Federated Learning using Client Adaptive Focal Modulation
摘要: 联邦学习(FL)已被证明在跨分布式客户端的隐私保护协作训练中至关重要。 我们的先前工作,TransFed,引入了一个基于变压器的鲁棒联邦学习框架,该框架利用学习适应的超网络为每个客户端生成个性化的焦点调制层,在非独立同分布和跨领域设置中优于传统方法。 在本扩展版本中,我们提出了AdaptFED,通过结合以下内容来深入研究通用联邦学习中的焦点调制:(1)一种改进的适应策略,整合任务感知的客户端嵌入以进一步个性化调制动态,(2)对适应性能的增强理论边界,以及(3)在更多模态上的广泛实证验证,包括时间序列和多语言数据。 我们还引入了TransFed的一种高效变体,通过低秩超网络条件减少服务器-客户端通信开销,使在资源受限环境中的可扩展部署成为可能。 在八个多样化数据集上的大量实验证实了我们的方法在源自由和跨任务联邦设置中优于最先进的基线。 我们的发现不仅扩展了焦点调制在FL中的能力,也为更适应、可扩展和通用的基于变压器的联邦系统铺平了道路。 代码可在 http://github.com/Tajamul21/TransFed 获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.