计算机科学 > 软件工程
[提交于 2025年7月14日
]
标题: 使用大语言模型的显式漏洞生成:超越对抗攻击的研究
标题: Explicit Vulnerability Generation with LLMs: An Investigation Beyond Adversarial Attacks
摘要: 大型语言模型(LLMs)越来越多地被用作代码助手,但当明确要求生成不安全代码时,它们的行为仍知之甚少。 尽管之前的研究集中在无意的漏洞或对抗性提示技术上,但本研究考察了一个更直接的威胁场景:当提示直接或间接时,开源LLMs生成易受攻击的代码。 我们提出了一种双实验设计:(1)动态提示,系统地在结构化模板中变化漏洞类型、用户角色和直接性;(2)反向提示,从真实的易受攻击代码样本中推导提示,以评估漏洞再现的准确性。 我们使用ESBMC静态分析评估了三个开源7B参数模型(Qwen2、Mistral和Gemma),以评估漏洞的存在性和生成漏洞类型的正确性。 结果表明,所有模型经常生成易受攻击的输出,其中Qwen2的正确率最高。 用户角色显著影响成功率,学生角色比专业角色更容易产生漏洞,而直接提示略为有效。 漏洞再现与循环复杂度呈倒U型关系,在中等范围内达到峰值。 我们的发现揭示了开源模型中安全机制的局限性,特别是对于看似无害的教育请求。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.