计算机科学 > 密码学与安全
[提交于 2025年7月13日
]
标题: 一种线性校正的混合生成安全代码
标题: A Mixture of Linear Corrections Generates Secure Code
摘要: 大型语言模型(LLMs)在复杂的代码生成任务上已经变得熟练,但在可靠地检测或避免代码漏洞方面仍然无效。 这种不足是由于对代码漏洞的学习不足,还是仅仅是由于提示效果不佳的结果? 使用表示工程技术,我们研究LLMs内部是否编码了识别代码漏洞所需的概念。 我们发现当前的LLMs编码了精确的内部表示,能够区分有漏洞和安全的代码——其准确性高于标准提示方法。 利用这些对漏洞敏感的表示,我们开发了一种推理时引导技术,通过校正混合(MoC)微妙地调节模型的token生成概率。 我们的方法有效地引导LLMs生成较少有漏洞的代码,而不会影响功能,展示了在生成代码中进行受控漏洞管理的实用方法。 值得注意的是,MoC将Qwen2.5-Coder-7B的安全比率提高了8.9%,同时在HumanEval pass@1上提高了功能2.1%。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.