计算机科学 > 编程语言
[提交于 2025年6月26日
]
标题: 基于大语言模型的代码生成中无预言的正确性估计
标题: Estimating Correctness Without Oracles in LLM-Based Code Generation
摘要: 从自然语言规范生成代码是大型语言模型(LLMs)最成功的应用之一。 然而,它们会产生幻觉: LLMs 生成的输出可能在语法上正确,但事实错误。 在没有现有正确实现(即一个 oracle)的情况下,我们能否量化生成程序正确的可能性? 在本文中,我们提出了一种不一致性的度量方法,称为不一致性,在没有 oracle 的情况下可以高效估计,并提供了错误的下限,即对于该规范的 LLM 生成程序不正确的概率。 我们的实验表明了非凡的有效性。 对于平均代码生成任务,我们的基于不一致性的方法可以在不报告假阳性的情况下自动识别大约三分之二的错误程序。 事实上,基于 oracle 的 LLM 评估可以被基于不一致性的评估可靠地替代。 特别是,我们发现通过 oracle 被视为正确的程序数量对 LLM 进行排序与通过我们的不一致性被视为正确的程序数量对 LLM 进行排序之间存在非常强的一致性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.