Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2505.00603

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2505.00603 (cs)
[提交于 2025年5月1日 ]

标题: LLM能否帮助提高战略决策中的类比推理?人类和GPT-4的实验证据

标题: Can LLMs Help Improve Analogical Reasoning For Strategic Decisions? Experimental Evidence from Humans and GPT-4

Authors:Phanish Puranam, Prothit Sen, Maciej Workiewicz
摘要: 本研究调查了大型语言模型,特别是GPT4,在战略决策背景下的类比推理能力是否能与人类相匹配。通过采用一种新颖的实验设计,涉及源到目标的匹配,我们发现GPT4通过检索所有可能的类比实现了高召回率,但因低精度而受到影响,经常根据表面相似性应用错误的类比。相比之下,人类参与者表现出高精度但低召回率,选择较少的类比却具有更强的因果对齐。这些发现通过识别匹配(类比推理的评价阶段)作为需要准确因果映射的独立步骤,从而推进了理论发展。尽管当前的大规模语言模型在生成候选类比方面很熟练,但在识别跨领域的深层结构相似性方面,人类仍具有比较优势。错误分析显示,人工智能错误源于表面匹配,而人类错误则源于因果结构的误解。综合来看,结果表明在人工智能辅助的组织决策过程中存在一种有效的劳动分工,其中大规模语言模型可以充当广泛的类比生成器,而人类则作为关键评估者,应用最符合情境的类比来解决战略问题。
摘要: This study investigates whether large language models, specifically GPT4, can match human capabilities in analogical reasoning within strategic decision making contexts. Using a novel experimental design involving source to target matching, we find that GPT4 achieves high recall by retrieving all plausible analogies but suffers from low precision, frequently applying incorrect analogies based on superficial similarities. In contrast, human participants exhibit high precision but low recall, selecting fewer analogies yet with stronger causal alignment. These findings advance theory by identifying matching, the evaluative phase of analogical reasoning, as a distinct step that requires accurate causal mapping beyond simple retrieval. While current LLMs are proficient in generating candidate analogies, humans maintain a comparative advantage in recognizing deep structural similarities across domains. Error analysis reveals that AI errors arise from surface level matching, whereas human errors stem from misinterpretations of causal structure. Taken together, the results suggest a productive division of labor in AI assisted organizational decision making where LLMs may serve as broad analogy generators, while humans act as critical evaluators, applying the most contextually appropriate analogies to strategic problems.
主题: 人工智能 (cs.AI) ; 人机交互 (cs.HC)
引用方式: arXiv:2505.00603 [cs.AI]
  (或者 arXiv:2505.00603v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2505.00603
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Prothit Sen [查看电子邮件]
[v1] 星期四, 2025 年 5 月 1 日 15:35:01 UTC (475 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-05
切换浏览方式为:
cs
cs.HC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号