计算机科学 > 人工智能
[提交于 2024年6月9日
(v1)
,最后修订 2024年11月30日 (此版本, v6)]
标题: 基于大语言模型的智能体的主流范式综述:工具使用(包括RAG)、规划和反馈学习
标题: A Review of Prominent Paradigms for LLM-Based Agents: Tool Use (Including RAG), Planning, and Feedback Learning
摘要: 工具使用、规划和反馈学习是当前在各种任务中开发基于大型语言模型(LLM)代理的三种突出范式。 尽管为每种范式都设计了许多框架,但它们复杂的流程和不一致的分类给跨不同范式的框架理解和回顾带来了挑战。 本综述介绍了一个统一的分类法,以系统地回顾和讨论这些框架。 具体而言,1)该分类法定义了环境/任务、常见的LLM配置角色或LMPRs(策略模型、评估者和动态模型),以及先前工作中发现的通用流程,2)它能够比较不同代理范式和框架中LMPRs实现和流程设计的关键观点。 3)最后,我们识别了现有流程设计中的三个局限性,并系统地讨论了未来的工作。 资源已公开在我们的GitHub仓库https://github.com/xinzhel/LLM-Agent-Survey中。
提交历史
来自: Xinzhe Li [查看电子邮件][v1] 星期日, 2024 年 6 月 9 日 14:42:55 UTC (9,288 KB)
[v2] 星期日, 2024 年 6 月 16 日 00:59:27 UTC (9,290 KB)
[v3] 星期二, 2024 年 9 月 17 日 14:02:29 UTC (806 KB)
[v4] 星期三, 2024 年 10 月 23 日 11:36:57 UTC (979 KB)
[v5] 星期四, 2024 年 10 月 24 日 07:07:43 UTC (979 KB)
[v6] 星期六, 2024 年 11 月 30 日 22:38:57 UTC (982 KB)
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.