计算机科学 > 机器学习
[提交于 2023年5月31日
(v1)
,最后修订 2023年10月10日 (此版本, v2)]
标题: 基于图的方法结合特定分布距离的对抗攻击检测
标题: Graph-based methods coupled with specific distributional distances for adversarial attack detection
摘要: 人工神经网络容易被经过精心扰动的输入所欺骗,这些输入会导致严重的错误分类。 这些\textit{对抗的}攻击一直是大量研究的重点。 同样,关于检测和防御这些攻击的方法也有大量研究。 我们从图的角度引入了一种新的检测和解释对抗攻击的方法。 对于输入图像,我们使用逐层相关传播算法\cite{bach15}计算一个相关的稀疏图。 具体来说,我们只保留神经网络中相关性值最高的边。 然后从图中计算出三个量,并将其与训练集计算出的值进行比较。 比较的结果是将图像分类为良性或对抗性的。 为了进行比较,介绍了两种分类方法:1)基于Wasserstein距离的显式公式,应用于节点的度数,2)逻辑回归。 这两种分类方法都产生了良好的结果,使我们相信基于图的对抗攻击解释是有价值的。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.