Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.01538

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2506.01538 (cs)
[提交于 2025年6月2日 (v1) ,最后修订 2025年6月3日 (此版本, v2)]

标题: LAMARL:基于大型语言模型辅助的多智能体强化学习的合作策略生成

标题: LAMARL: LLM-Aided Multi-Agent Reinforcement Learning for Cooperative Policy Generation

Authors:Guobin Zhu, Rui Zhou, Wenkang Ji, Shiyu Zhao
摘要: 尽管多智能体强化学习(MARL)在复杂的多机器人任务中表现出色,但它存在样本效率低的问题,并且需要迭代的手动奖励调整。大型语言模型(LLMs)在单机器人设置中显示出潜力,但其在多机器人系统中的应用仍基本未被探索。本文介绍了一种新颖的LLM辅助MARL(LAMARL)方法,该方法将MARL与LLMs相结合,显著提高了样本效率,而无需人工设计。 LAMARL由两个模块组成:第一个模块利用LLMs完全自动化地生成先验策略和奖励函数。第二个模块是MARL,它使用生成的函数来有效指导机器人策略训练。 在一个形状组装基准测试中,模拟和真实世界实验均展示了LAMARL的独特优势。消融研究显示,先验策略平均提升了185.9%的样本效率并提高了任务完成度,而基于链式思维(CoT)和基本API的结构化提示将LLM输出成功率提高了28.5%-67.5%。 视频和代码可在https://windylab.github.io/LAMARL/获取。
摘要: Although Multi-Agent Reinforcement Learning (MARL) is effective for complex multi-robot tasks, it suffers from low sample efficiency and requires iterative manual reward tuning. Large Language Models (LLMs) have shown promise in single-robot settings, but their application in multi-robot systems remains largely unexplored. This paper introduces a novel LLM-Aided MARL (LAMARL) approach, which integrates MARL with LLMs, significantly enhancing sample efficiency without requiring manual design. LAMARL consists of two modules: the first module leverages LLMs to fully automate the generation of prior policy and reward functions. The second module is MARL, which uses the generated functions to guide robot policy training effectively. On a shape assembly benchmark, both simulation and real-world experiments demonstrate the unique advantages of LAMARL. Ablation studies show that the prior policy improves sample efficiency by an average of 185.9% and enhances task completion, while structured prompts based on Chain-of-Thought (CoT) and basic APIs improve LLM output success rates by 28.5%-67.5%. Videos and code are available at https://windylab.github.io/LAMARL/
评论: 已被IEEE Robotics and Automation Letters接受
主题: 机器人技术 (cs.RO) ; 人工智能 (cs.AI)
引用方式: arXiv:2506.01538 [cs.RO]
  (或者 arXiv:2506.01538v2 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.01538
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Guobin Zhu [查看电子邮件]
[v1] 星期一, 2025 年 6 月 2 日 10:59:54 UTC (2,233 KB)
[v2] 星期二, 2025 年 6 月 3 日 07:53:14 UTC (2,247 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.RO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号