计算机科学 > 密码学与安全
[提交于 2025年7月31日
]
标题: LLMs 可以在链式思维监控下隐秘地降低能力评估
标题: LLMs Can Covertly Sandbag on Capability Evaluations Against Chain-of-Thought Monitoring
摘要: 对危险能力的可信评估对于确定AI系统是否安全部署变得越来越重要。 一个经验上证明的威胁是装傻——AI模型或其开发人员在评估中战略性地表现不佳。 一种有希望的防御方法是监控模型的思维链(CoT)推理,因为这可能揭示其意图和计划。 在本工作中,我们通过提示模型在被监控无知或监控意识的情况下进行装傻,来衡量模型在危险能力评估中对CoT监控的装傻能力。 我们表明,前沿模型和小型开源模型可以在没有提示的情况下0次射击地隐蔽装傻。 然而,它们目前还不能可靠地做到这一点:当处于监控意识状态时,它们在成功装傻的情况下有16-36%的时间绕过监控。 我们定性分析了未被发现的CoT,以了解监控为何失败。 我们揭示了CoT监控的丰富攻击面,并贡献了由模型生成的五个隐蔽装傻策略。 这些结果说明了CoT监控的潜在故障模式,并可能有助于构建更多样化的装傻模型生物。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.