计算机科学 > 人工智能
[提交于 2024年6月11日
(此版本)
, 最新版本 2025年3月17日 (v3)
]
标题: 基于大型语言模型的多智能体协作扩展
标题: Scaling Large-Language-Model-based Multi-Agent Collaboration
摘要: 在大型语言模型驱动的智能体方面的开创性进展突显了多智能体协作的设计模式,表明集体智能可以超越每个个体的能力。 受神经缩放定律的启发,该定律认为增加神经元会导致涌现能力,本研究探讨了类似的原理是否适用于增加多智能体协作中的智能体数量。 技术上,我们提出了多智能体协作网络(MacNet),它利用有向无环图来组织智能体,并通过拓扑排序简化它们的交互推理,解决方案来自它们的对话。 大量实验表明,MacNet始终优于基线模型,在各种网络拓扑中实现了有效的智能体协作,并支持超过一千个智能体之间的合作。 值得注意的是,我们观察到一种小世界协作现象,其中拓扑结构类似于小世界属性的表现出更优的性能。 此外,我们发现了一种协作缩放定律,表明随着智能体数量的增加,归一化解决方案质量遵循逻辑增长模式,协作涌现发生得比之前观察到的神经涌现要早得多。 代码和数据将在 https://github.com/OpenBMB/ChatDev 提供。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.