Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2003.00040

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2003.00040 (cs)
[提交于 2020年2月28日 (v1) ,最后修订 2020年6月20日 (此版本, v2)]

标题: 正则化可以缓解中毒攻击:基于多目标双层优化的新分析

标题: Regularisation Can Mitigate Poisoning Attacks: A Novel Analysis Based on Multiobjective Bilevel Optimisation

Authors:Javier Carnerero-Cano, Luis Muñoz-González, Phillippa Spencer, Emil C. Lupu
摘要: 机器学习(ML)算法容易受到中毒攻击,其中一部分训练数据被篡改以故意降低算法的性能。 最优中毒攻击可以被表述为双层优化问题,有助于在最坏情况下评估学习算法的鲁棒性。 然而,目前针对具有超参数的算法的攻击通常假设这些超参数保持不变,忽略了攻击对其的影响。 我们表明,这种方法会导致对算法鲁棒性的过于悲观的看法。 我们提出了一种新的最优攻击公式,通过将攻击建模为多目标双层优化问题,考虑攻击对超参数的影响。 我们将这种新的攻击公式应用于使用$L_2$正则化的机器学习分类器,并表明,与之前报道的结果相反,$L_2$正则化增强了学习算法的稳定性并有助于缓解攻击。 我们在不同数据集上的实证评估证实了先前策略的局限性,证明了使用$L_2$正则化来减弱中毒攻击影响的好处,并展示了正则化超参数如何随着中毒点的比例增加而增加。
摘要: Machine Learning (ML) algorithms are vulnerable to poisoning attacks, where a fraction of the training data is manipulated to deliberately degrade the algorithms' performance. Optimal poisoning attacks, which can be formulated as bilevel optimisation problems, help to assess the robustness of learning algorithms in worst-case scenarios. However, current attacks against algorithms with hyperparameters typically assume that these hyperparameters remain constant ignoring the effect the attack has on them. We show that this approach leads to an overly pessimistic view of the robustness of the algorithms. We propose a novel optimal attack formulation that considers the effect of the attack on the hyperparameters by modelling the attack as a multiobjective bilevel optimisation problem. We apply this novel attack formulation to ML classifiers using $L_2$ regularisation and show that, in contrast to results previously reported, $L_2$ regularisation enhances the stability of the learning algorithms and helps to mitigate the attacks. Our empirical evaluation on different datasets confirms the limitations of previous strategies, evidences the benefits of using $L_2$ regularisation to dampen the effect of poisoning attacks and shows how the regularisation hyperparameter increases with the fraction of poisoning points.
主题: 机器学习 (cs.LG) ; 密码学与安全 (cs.CR); 机器学习 (stat.ML)
引用方式: arXiv:2003.00040 [cs.LG]
  (或者 arXiv:2003.00040v2 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2003.00040
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Javier Carnerero-Cano [查看电子邮件]
[v1] 星期五, 2020 年 2 月 28 日 19:46:10 UTC (4,210 KB)
[v2] 星期六, 2020 年 6 月 20 日 13:44:48 UTC (4,889 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2020-03
切换浏览方式为:
cs
cs.CR
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号