Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.03306

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2501.03306 (cs)
[提交于 2025年1月6日 ]

标题: 联邦学习中具有压缩的脉冲神经网络对非全知拜占庭攻击的鲁棒性

标题: The Robustness of Spiking Neural Networks in Federated Learning with Compression Against Non-omniscient Byzantine Attacks

Authors:Manh V. Nguyen, Liang Zhao, Bobin Deng, Shaoen Wu
摘要: 脉冲神经网络(SNNs),其在推理方面具有出色的能效,以及联邦学习(FL),其提供隐私保护的分布式训练,是一个日益受到关注的领域,对物联网(IoT)设备具有高度的益处。 尽管如此,针对FL-SNNs中的拜占庭攻击和带宽限制的研究,这两者都对模型收敛和训练时间构成重大威胁,仍然大多未被探索。 除了提出解决这两个问题的方案外,在本工作中,我们强调了FL-SNNs的双重优势,相对于非全知的拜占庭对手(那些限制攻击者访问本地客户端数据集的对手),以及更高的通信效率,优于FL-ANNs。 具体来说,我们发现将Top-\k{appa}稀疏化简单地集成到FL框架中,可以帮助利用SNN模型的优势,在大大减少带宽使用量和显著提高FL训练 against 非全知拜占庭对手的鲁棒性方面。 最值得注意的是,我们在致命的MinMax攻击下,FL-SNNs训练中看到了大约40%的准确率提升。
摘要: Spiking Neural Networks (SNNs), which offer exceptional energy efficiency for inference, and Federated Learning (FL), which offers privacy-preserving distributed training, is a rising area of interest that highly beneficial towards Internet of Things (IoT) devices. Despite this, research that tackles Byzantine attacks and bandwidth limitation in FL-SNNs, both poses significant threats on model convergence and training times, still remains largely unexplored. Going beyond proposing a solution for both of these problems, in this work we highlight the dual benefits of FL-SNNs, against non-omniscient Byzantine adversaries (ones that restrict attackers access to local clients datasets), and greater communication efficiency, over FL-ANNs. Specifically, we discovered that a simple integration of Top-\k{appa} sparsification into the FL apparatus can help leverage the advantages of the SNN models in both greatly reducing bandwidth usage and significantly boosting the robustness of FL training against non-omniscient Byzantine adversaries. Most notably, we saw a massive improvement of roughly 40% accuracy gain in FL-SNNs training under the lethal MinMax attack
主题: 密码学与安全 (cs.CR) ; 分布式、并行与集群计算 (cs.DC); 机器学习 (cs.LG)
引用方式: arXiv:2501.03306 [cs.CR]
  (或者 arXiv:2501.03306v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.03306
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Manh Nguyen [查看电子邮件]
[v1] 星期一, 2025 年 1 月 6 日 18:09:55 UTC (1,941 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.DC
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号