计算机科学 > 密码学与安全
[提交于 2025年1月3日
]
标题: 与好人混在一起以攻击联邦学习
标题: Mingling with the Good to Backdoor Federated Learning
摘要: 联邦学习(FL)是一种去中心化的机器学习技术,允许多个实体在保持数据集隐私的同时共同训练模型。然而,其分布式特性引发了各种安全问题,这些问题已通过日益复杂的防御措施得到解决。这些防护措施利用多种数据源和指标,例如过滤恶意模型更新,以确保攻击的影响最小化或消除。本文探讨了设计一种通用攻击方法的可行性,该方法能够在联邦学习中植入后门并逃避多种防御措施。具体来说,我们关注一种称为MIGO的攻击策略,该策略旨在生成与合法更新微妙融合的模型更新。其结果是,后门逐渐融入全局模型,通常在攻击结束后仍能长期存在,同时产生足够的模糊性以阻碍防御措施的有效性。MIGO被用于在五个数据集和不同模型架构中植入三种类型的后门。结果表明,这些后门带来了重大威胁,因为MIGO始终能够实现极高的后门准确率(超过90%),同时保持主要任务的实用性。此外,MIGO对十种防御措施表现出强大的逃避能力,包括几种最先进的方法。与四种其他攻击策略相比,MIGO在大多数配置中始终表现更优。值得注意的是,即使在极端情况下,攻击者仅控制0.1%的客户端,如果攻击者能够持续足够多的轮次,结果表明成功植入后门是可能的。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.