计算机科学 > 密码学与安全
[提交于 2025年7月9日
]
标题: RAG安全:探索知识污染攻击对检索增强生成的影响
标题: RAG Safety: Exploring Knowledge Poisoning Attacks to Retrieval-Augmented Generation
摘要: 检索增强生成(RAG)通过检索外部数据来缓解幻觉和过时知识问题,从而增强大型语言模型(LLMs)的能力。 得益于在促进多种数据源和支持忠实推理方面的强大能力,知识图谱(KGs)已被越来越多地应用于RAG系统,从而产生了基于知识图谱的RAG(KG-RAG)方法。 尽管RAG系统被广泛应用于各种应用中,但最近的研究也揭示了其对数据中毒攻击的脆弱性,其中注入到外部知识源中的恶意信息可能会误导系统产生错误或有害的响应。 然而,这些研究仅专注于使用非结构化文本数据源的RAG系统,尽管知识图谱由于其结构化和可编辑的特性而存在独特的漏洞,但KG-RAG的安全风险仍 largely 未被探索。 在本工作中,我们通过数据中毒攻击对KG-RAG方法的安全问题进行了首次系统的调查。 为此,我们引入了一个实际且隐蔽的攻击设置,与现实世界的实现相一致。 我们提出了一种攻击策略,首先识别对抗性目标答案,然后插入扰动三元组以在知识图谱中完成误导性的推理链,增加KG-RAG方法在生成过程中检索和依赖这些扰动的可能性。 通过在两个基准和四种最近的KG-RAG方法上的大量实验,我们的攻击策略表现出强大的有效性,即使在最小的知识图谱扰动下也是如此。 还进行了深入分析,以了解KG-RAG系统内部阶段内的安全威胁,并探讨大型语言模型对对抗性知识的鲁棒性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.