Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.13169

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2507.13169 (cs)
[提交于 2025年7月17日 ]

标题: 提示注入2.0:混合AI威胁

标题: Prompt Injection 2.0: Hybrid AI Threats

Authors:Jeremy McHugh, Kristina Šekrst, Jon Cefalu
摘要: 提示注入攻击,其中恶意输入被设计用来操纵AI系统,使其忽略原始指令并遵循未经授权的命令,最初由Preamble, Inc.于2022年5月发现,并负责任地披露给OpenAI。 在过去三年中,这些攻击持续对集成LLM的系统构成关键的安全威胁。 代理型AI系统的出现,其中LLM通过工具和与其他代理的协作自主执行多步骤任务,彻底改变了威胁环境。 现代的提示注入攻击现在可以与传统的网络安全漏洞结合,创造出系统性地规避传统安全控制的混合威胁。 本文对Prompt Injection 2.0进行了全面分析,探讨了提示注入如何与跨站脚本(XSS)、跨站请求伪造(CSRF)和其他网络安全隐患结合,以绕过传统的安全措施。 我们基于Preamble的基础研究和缓解技术,将其与当代威胁进行评估,包括AI蠕虫、多代理感染和混合网络-AI攻击。 我们的分析包含了最近的基准测试,展示了传统网络应用防火墙、XSS过滤器和CSRF令牌在面对AI增强的攻击时的失败。 我们还提出了将提示隔离、运行时安全和权限分离与新颖的威胁检测能力相结合的架构解决方案。
摘要: Prompt injection attacks, where malicious input is designed to manipulate AI systems into ignoring their original instructions and following unauthorized commands instead, were first discovered by Preamble, Inc. in May 2022 and responsibly disclosed to OpenAI. Over the last three years, these attacks have continued to pose a critical security threat to LLM-integrated systems. The emergence of agentic AI systems, where LLMs autonomously perform multistep tasks through tools and coordination with other agents, has fundamentally transformed the threat landscape. Modern prompt injection attacks can now combine with traditional cybersecurity exploits to create hybrid threats that systematically evade traditional security controls. This paper presents a comprehensive analysis of Prompt Injection 2.0, examining how prompt injections integrate with Cross-Site Scripting (XSS), Cross-Site Request Forgery (CSRF), and other web security vulnerabilities to bypass traditional security measures. We build upon Preamble's foundational research and mitigation technologies, evaluating them against contemporary threats, including AI worms, multi-agent infections, and hybrid cyber-AI attacks. Our analysis incorporates recent benchmarks that demonstrate how traditional web application firewalls, XSS filters, and CSRF tokens fail against AI-enhanced attacks. We also present architectural solutions that combine prompt isolation, runtime security, and privilege separation with novel threat detection capabilities.
主题: 密码学与安全 (cs.CR) ; 人工智能 (cs.AI)
引用方式: arXiv:2507.13169 [cs.CR]
  (或者 arXiv:2507.13169v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.13169
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Jeremy McHugh [查看电子邮件]
[v1] 星期四, 2025 年 7 月 17 日 14:33:36 UTC (14 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号