计算机科学 > 人工智能
[提交于 2025年5月1日
]
标题: LLM能否帮助提高战略决策中的类比推理?人类和GPT-4的实验证据
标题: Can LLMs Help Improve Analogical Reasoning For Strategic Decisions? Experimental Evidence from Humans and GPT-4
摘要: 本研究调查了大型语言模型,特别是GPT4,在战略决策背景下的类比推理能力是否能与人类相匹配。通过采用一种新颖的实验设计,涉及源到目标的匹配,我们发现GPT4通过检索所有可能的类比实现了高召回率,但因低精度而受到影响,经常根据表面相似性应用错误的类比。相比之下,人类参与者表现出高精度但低召回率,选择较少的类比却具有更强的因果对齐。这些发现通过识别匹配(类比推理的评价阶段)作为需要准确因果映射的独立步骤,从而推进了理论发展。尽管当前的大规模语言模型在生成候选类比方面很熟练,但在识别跨领域的深层结构相似性方面,人类仍具有比较优势。错误分析显示,人工智能错误源于表面匹配,而人类错误则源于因果结构的误解。综合来看,结果表明在人工智能辅助的组织决策过程中存在一种有效的劳动分工,其中大规模语言模型可以充当广泛的类比生成器,而人类则作为关键评估者,应用最符合情境的类比来解决战略问题。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.