Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.10733v1

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2507.10733v1 (cs)
[提交于 2025年7月14日 ]

标题: 3S攻击:针对DNN模型的空间、频谱和语义不可见后门攻击

标题: 3S-Attack: Spatial, Spectral and Semantic Invisible Backdoor Attack Against DNN Models

Authors:Jianyao Yin, Luca Arnaboldi, Honglong Chen, Pascal Berrang
摘要: 后门攻击涉及污染训练数据或直接修改模型,以植入一种隐藏行为,当存在特定触发器时会导致模型对输入进行错误分类。 在推理过程中,模型对良性样本保持高准确性,但会将被污染的样本错误分类为攻击者指定的目标类别。 现有的后门攻击研究探索了在空间、光谱(频率)和语义(特征)领域开发触发器,旨在使其隐蔽。 虽然一些方法考虑了在空间和光谱领域都难以察觉的触发器,但很少有方法结合了语义领域。 在本文中,我们提出了一种新颖的后门攻击,称为3S-攻击,它在空间、光谱和语义领域都是隐蔽的。 其核心思想是利用良性样本的语义特征作为触发器,使用梯度加权类激活映射(Grad-CAM)和一个预训练模型进行提取。 然后将触发器嵌入到光谱领域,在将样本转换回空间领域后,再进行像素级限制。 这一过程最小化了被污染样本和良性样本之间的距离,使攻击更难被现有防御措施和人工检查发现。 在各种数据集上的大量实验以及理论分析表明了3S-攻击的隐蔽性,并强调了需要更强的防御措施以确保人工智能安全。 我们的代码可在以下网址获取:https://anonymous.4open.science/r/anon-project-3776/
摘要: Backdoor attacks involve either poisoning the training data or directly modifying the model in order to implant a hidden behavior, that causes the model to misclassify inputs when a specific trigger is present. During inference, the model maintains high accuracy on benign samples but misclassifies poisoned samples into an attacker-specified target class. Existing research on backdoor attacks has explored developing triggers in the spatial, spectral (frequency), and semantic (feature) domains, aiming to make them stealthy. While some approaches have considered designing triggers that are imperceptible in both spatial and spectral domains, few have incorporated the semantic domain. In this paper, we propose a novel backdoor attack, termed 3S-attack, which is stealthy across the spatial, spectral, and semantic domains. The key idea is to exploit the semantic features of benign samples as triggers, using Gradient-weighted Class Activation Mapping (Grad-CAM) and a preliminary model for extraction. The trigger is then embedded in the spectral domain, followed by pixel-level restrictions after converting the samples back to the spatial domain. This process minimizes the distance between poisoned and benign samples, making the attack harder to detect by existing defenses and human inspection. Extensive experiments on various datasets, along with theoretical analysis, demonstrate the stealthiness of 3S-attack and highlight the need for stronger defenses to ensure AI security. Our code is available at: https://anonymous.4open.science/r/anon-project-3776/
评论: 14页,10图
主题: 密码学与安全 (cs.CR)
引用方式: arXiv:2507.10733 [cs.CR]
  (或者 arXiv:2507.10733v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.10733
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jianyao Yin [查看电子邮件]
[v1] 星期一, 2025 年 7 月 14 日 18:56:55 UTC (1,498 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号