计算机科学 > 密码学与安全
[提交于 2025年1月6日
]
标题: 联邦学习中具有压缩的脉冲神经网络对非全知拜占庭攻击的鲁棒性
标题: The Robustness of Spiking Neural Networks in Federated Learning with Compression Against Non-omniscient Byzantine Attacks
摘要: 脉冲神经网络(SNNs),其在推理方面具有出色的能效,以及联邦学习(FL),其提供隐私保护的分布式训练,是一个日益受到关注的领域,对物联网(IoT)设备具有高度的益处。 尽管如此,针对FL-SNNs中的拜占庭攻击和带宽限制的研究,这两者都对模型收敛和训练时间构成重大威胁,仍然大多未被探索。 除了提出解决这两个问题的方案外,在本工作中,我们强调了FL-SNNs的双重优势,相对于非全知的拜占庭对手(那些限制攻击者访问本地客户端数据集的对手),以及更高的通信效率,优于FL-ANNs。 具体来说,我们发现将Top-\k{appa}稀疏化简单地集成到FL框架中,可以帮助利用SNN模型的优势,在大大减少带宽使用量和显著提高FL训练 against 非全知拜占庭对手的鲁棒性方面。 最值得注意的是,我们在致命的MinMax攻击下,FL-SNNs训练中看到了大约40%的准确率提升。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.