计算机科学 > 人工智能
[提交于 2024年6月10日
(v1)
,最后修订 2024年11月1日 (此版本, v2)]
标题: 不确定情境下大语言模型决策行为评估框架
标题: Decision-Making Behavior Evaluation Framework for LLMs under Uncertain Context
摘要: 在不确定性下做出决策时,个体常常偏离理性行为,这可以从三个维度进行评估:风险偏好、概率加权和损失厌恶。 鉴于大型语言模型(LLMs)在决策过程中的广泛应用,评估其行为是否符合人类规范和伦理期望,或是否存在潜在偏见至关重要。 一些实证研究已经调查了LLMs的理性和社会行为表现,但它们内部的决策倾向和能力仍缺乏充分理解。 本文提出一个基于行为经济学的框架,用于评估LLMs的决策行为。 通过一个多选列表实验,我们在无上下文的环境中估计了三种商业LLMs的风险偏好、概率加权和损失厌恶程度: ChatGPT-4.0-Turbo、Claude-3-Opus和Gemini-1.0-pro。 我们的结果表明, LLMs通常表现出与人类相似的模式,如风险厌恶和损失厌恶,并倾向于高估小概率。 然而,这些行为在不同LLMs中的表现程度存在显著差异。 我们还探讨了在嵌入社会人口特征时它们的行为,发现了显著的差异。 例如,当模拟性少数群体或身体残疾的属性时,Claude-3-Opus表现出更高的风险厌恶,导致更保守的选择。 这些发现强调了在将LLMs应用于决策场景时,需要仔细考虑其伦理影响和潜在偏见。 因此,本研究主张制定标准和指南,以确保LLMs在复杂决策环境中的伦理边界内运行,同时提高其实用性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.