Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:1003.0078v1

帮助 | 高级搜索

统计学 > 机器学习

arXiv:1003.0078v1 (stat)
[提交于 2010年2月27日 ]

标题: 在线中心点异常检测的安全性分析

标题: Security Analysis of Online Centroid Anomaly Detection

Authors:Marius Kloft, Pavel Laskov
摘要: 安全问题是许多机器学习应用中的关键问题,特别是在处理人类活动而非自然现象的场景中(例如,信息排名、垃圾邮件检测、恶意软件检测等)。在这种情况下,可以预期学习算法将不得不处理旨在干扰决策的操纵数据。尽管一些先前的工作研究了监督学习背景下恶意数据的处理,但关于异常检测方法在这些场景中的行为知之甚少。在本贡献中,我们分析了在对抗噪声存在的情况下一种特定方法——在线中心点异常检测——的性能。我们的分析涉及以下安全相关问题:学习和攻击过程的形式化,最优攻击的推导,其效率和约束的分析。我们推导了在不同条件下对中心点异常检测的中毒攻击的有效性界限:有限和无限的流量百分比,以及有限的误报率。我们的界限表明,虽然在无约束情况下可以有效地进行中毒攻击,但如果正确使用外部约束,可以使攻击变得极其困难(攻击者的收益有严格的上限)。我们在真实HTTP和漏洞利用痕迹上的实验评估证实了我们理论界限的紧密性和保护机制的实用性。
摘要: Security issues are crucial in a number of machine learning applications, especially in scenarios dealing with human activity rather than natural phenomena (e.g., information ranking, spam detection, malware detection, etc.). It is to be expected in such cases that learning algorithms will have to deal with manipulated data aimed at hampering decision making. Although some previous work addressed the handling of malicious data in the context of supervised learning, very little is known about the behavior of anomaly detection methods in such scenarios. In this contribution we analyze the performance of a particular method -- online centroid anomaly detection -- in the presence of adversarial noise. Our analysis addresses the following security-related issues: formalization of learning and attack processes, derivation of an optimal attack, analysis of its efficiency and constraints. We derive bounds on the effectiveness of a poisoning attack against centroid anomaly under different conditions: bounded and unbounded percentage of traffic, and bounded false positive rate. Our bounds show that whereas a poisoning attack can be effectively staged in the unconstrained case, it can be made arbitrarily difficult (a strict upper bound on the attacker's gain) if external constraints are properly used. Our experimental evaluation carried out on real HTTP and exploit traces confirms the tightness of our theoretical bounds and practicality of our protection mechanisms.
主题: 机器学习 (stat.ML)
引用方式: arXiv:1003.0078 [stat.ML]
  (或者 arXiv:1003.0078v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.1003.0078
通过 DataCite 发表的 arXiv DOI
期刊参考: UCB/EECS-2010-22

提交历史

来自: Marius Kloft [查看电子邮件]
[v1] 星期六, 2010 年 2 月 27 日 08:35:51 UTC (683 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2010-03
切换浏览方式为:
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号