计算机科学 > 机器人技术
[提交于 2025年7月14日
]
标题: 提示感知的视觉覆盖路径规划强化学习
标题: Prompt Informed Reinforcement Learning for Visual Coverage Path Planning
摘要: 以无人飞行器(UAV)进行视觉覆盖路径规划需要代理战略性地协调UAV运动和相机控制,以最大化覆盖范围,最小化冗余,并保持电池效率。 传统的强化学习(RL)方法依赖于特定环境的奖励公式,缺乏语义适应性。 本研究提出了 提示引导强化学习(PIRL),这是一种将大型语言模型的零样本推理能力和上下文学习能力与好奇心驱动的RL相结合的新方法。 PIRL利用来自大型语言模型GPT-3.5的语义反馈,动态地调整指导代理在位置和相机调整中实现最佳视觉覆盖的近端策略优化(PPO)RL策略的奖励函数。 PIRL代理使用OpenAI Gym进行训练,并在各种环境中进行评估。 此外,通过在Webots模拟器中操作代理来测试代理的类似现实的仿真到现实的能力和零样本泛化能力,该模拟器引入了真实的物理动力学。 结果表明,PIRL优于多个基于学习的基线方法,如具有静态奖励的PPO、具有探索性权重初始化的PPO、模仿学习和仅使用LLM的控制器。 在不同的环境中,PIRL在OpenAI Gym中实现了比最佳基线高最多14%的视觉覆盖,在Webots中实现了高27%,在电池效率方面最高提高了25%,在冗余方面降低了最多18%,具体取决于环境。 结果突显了LLM引导的奖励设计在复杂空间探索任务中的有效性,并为将自然语言先验整合到机器人强化学习中提供了有前景的方向。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.