计算机科学 > 人工智能
[提交于 2024年6月11日
(v1)
,最后修订 2025年3月17日 (此版本, v3)]
标题: 基于大型语言模型的多智能体协作扩展
标题: Scaling Large Language Model-based Multi-Agent Collaboration
摘要: 最近在大型语言模型驱动的自主代理方面的突破表明,通过集体推理,多代理协作通常超越每个个体。 受神经尺度定律的启发——增加神经元可以提高性能,本研究探讨了持续添加协作代理是否能产生类似的好处。 技术上,我们利用有向无环图将代理组织成一个多代理协作网络(MacNet),在其上进行拓扑协调的交互推理以实现自主任务解决。 广泛的评估显示,它有效地支持超过一千个代理之间的协作,不规则的拓扑结构优于规则的拓扑结构。 我们还发现了一个协作尺度定律——随着代理规模的扩大,整体性能遵循逻辑增长模式,协作出现早于传统的神经出现。 我们推测这可能是因为扩展代理在交互反思和精炼过程中促进了多维考虑,从而产生了更全面的成果。 代码可在 https://github.com/OpenBMB/ChatDev/tree/macnet 获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.