Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.05057

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2501.05057 (cs)
[提交于 2025年1月9日 ]

标题: LearningFlow:基于大语言模型的城市驾驶自动策略学习工作流

标题: LearningFlow: Automated Policy Learning Workflow for Urban Driving with Large Language Models

Authors:Zengqi Peng, Yubin Wang, Xu Han, Lei Zheng, Jun Ma
摘要: 最近在强化学习(RL)方面的进展展示了其在自动驾驶中的巨大潜力。 尽管有这种前景,但诸如手动设计奖励函数以及复杂环境中的低样本效率等挑战仍然阻碍了安全有效驾驶策略的发展。 为了解决这些问题,我们引入了LearningFlow,这是一个针对城市驾驶的创新自动化策略学习工作流。 该框架在整个RL训练过程中利用了多个大型语言模型(LLM)代理的合作。 LearningFlow包括一个课程序列生成过程和一个奖励生成过程,这两个过程协同工作,通过生成定制的训练课程和奖励函数来指导RL策略。 特别是,每个过程都由一个分析代理支持,该代理评估训练进度并为生成代理提供关键见解。 通过这些LLM代理的协作努力, LearningFlow在一系列复杂的驾驶任务中实现了策略学习的自动化,并显著减少了对人工奖励函数设计的依赖,同时提高了样本效率。 在高保真CARLA模拟器中进行了全面的实验,并与其他现有方法进行了比较,以证明我们提出的方法的有效性。 结果表明,LearningFlow在生成奖励和课程方面表现出色。 它在各种驾驶任务中也实现了优越的性能和强大的泛化能力,并对不同的RL算法表现出令人称赞的适应性。
摘要: Recent advancements in reinforcement learning (RL) demonstrate the significant potential in autonomous driving. Despite this promise, challenges such as the manual design of reward functions and low sample efficiency in complex environments continue to impede the development of safe and effective driving policies. To tackle these issues, we introduce LearningFlow, an innovative automated policy learning workflow tailored to urban driving. This framework leverages the collaboration of multiple large language model (LLM) agents throughout the RL training process. LearningFlow includes a curriculum sequence generation process and a reward generation process, which work in tandem to guide the RL policy by generating tailored training curricula and reward functions. Particularly, each process is supported by an analysis agent that evaluates training progress and provides critical insights to the generation agent. Through the collaborative efforts of these LLM agents, LearningFlow automates policy learning across a series of complex driving tasks, and it significantly reduces the reliance on manual reward function design while enhancing sample efficiency. Comprehensive experiments are conducted in the high-fidelity CARLA simulator, along with comparisons with other existing methods, to demonstrate the efficacy of our proposed approach. The results demonstrate that LearningFlow excels in generating rewards and curricula. It also achieves superior performance and robust generalization across various driving tasks, as well as commendable adaptation to different RL algorithms.
主题: 机器人技术 (cs.RO) ; 人工智能 (cs.AI); 机器学习 (cs.LG)
引用方式: arXiv:2501.05057 [cs.RO]
  (或者 arXiv:2501.05057v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.05057
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zengqi Peng [查看电子邮件]
[v1] 星期四, 2025 年 1 月 9 日 08:28:16 UTC (6,660 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.LG
cs.RO

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号