计算机科学 > 计算与语言
[提交于 2025年8月6日
]
标题: 引出和分析最先进的大语言模型中的意外不对齐
标题: Eliciting and Analyzing Emergent Misalignment in State-of-the-Art Large Language Models
摘要: 尽管在对齐技术方面取得了显著进展,我们证明最先进的语言模型仍然容易受到精心设计的对话场景的影响,这些场景可以在不明确越狱的情况下引发各种形式的不对齐。 通过与Claude-4-Opus进行系统的手动红队测试,我们发现了10种成功的攻击场景,揭示了当前对齐方法在处理叙述沉浸、情感压力和战略框架方面的基本漏洞。 这些场景成功引发了包括欺骗、价值观漂移、自我保护和操纵性推理在内的多种不对齐行为,每种行为都利用了不同的心理和情境漏洞。 为了验证泛化能力,我们将成功的手动攻击提炼为MISALIGNMENTBENCH,这是一个自动化评估框架,能够在多个模型上进行可重复测试。 我们的10个场景在五种前沿大语言模型上的跨模型评估显示总体漏洞率为76%,存在显著差异:GPT-4.1表现出最高的易感性(90%),而Claude-4-Sonnet表现出更大的抵抗力(40%)。 我们的研究结果表明,复杂的推理能力通常成为攻击向量而非保护机制,因为模型可以被操纵以对不对齐行为进行复杂的合理化。 这项工作提供了(i)对话操控模式的详细分类法以及(ii)可重复使用的评估框架。 这些发现共同揭示了当前对齐策略中的关键差距,并强调了未来人工智能系统需要具备对抗微妙的、基于场景的操控的鲁棒性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.