计算机科学 > 机器学习
[提交于 2019年3月27日
(v1)
,最后修订 2019年9月25日 (此版本, v2)]
标题: 扩大随机梯度自由对抗攻击揭示了使用现有攻击方法对鲁棒性的高估
标题: Scaling up the randomized gradient-free adversarial attack reveals overestimation of robustness using established attacks
摘要: 现代神经网络在对抗性操作下表现出高度的不鲁棒性。 大量工作已经投入到通过形式化保证来计算鲁棒性的下界以及构建可证明鲁棒的模型的技术中。 然而,对于更大的网络或对更大的扰动的鲁棒性,仍然难以获得保证。 因此需要攻击策略来提供实际鲁棒性的紧致上界。 我们显著改进了针对ReLU网络的随机梯度无关攻击[9],特别是将其扩展到大型网络。 我们表明,我们的攻击在鲁棒准确性方面与最先进的攻击如PGD或Carlini和Wagner的方法相当或显著更低,从而揭示了这些最先进的方法对鲁棒性的高估。 我们的攻击不基于梯度下降方案,从这个意义上说是梯度无关的,这使得它对超参数的选择不太敏感,因为不需要仔细选择步长。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.