计算机科学 > 机器人技术
[提交于 2025年7月21日
]
标题: VLM-UDMC:用于城市自动驾驶的VLM增强型统一决策与运动控制
标题: VLM-UDMC: VLM-Enhanced Unified Decision-Making and Motion Control for Urban Autonomous Driving
摘要: 场景理解和风险感知注意力对于人类驾驶员做出安全有效的驾驶决策至关重要。 为了在城市自动驾驶中模仿这种认知能力并确保透明性和可解释性,我们提出了一种视觉-语言模型(VLM)增强的统一决策和运动控制框架,名为VLM-UDMC。 该框架将场景推理和风险感知洞察整合到一个上层慢速系统中,该系统动态重新配置下游快速系统的最佳运动规划。 重新配置基于实时环境变化,这些变化通过上下文感知势函数进行编码。 更具体地说,上层慢速系统采用两步推理策略,结合检索增强生成(RAG),利用基础模型处理多模态输入并检索上下文知识,从而生成风险感知洞察。 同时,一个轻量级多核分解LSTM通过提取短期轨迹预测的更平滑趋势表示,为异构交通参与者提供实时轨迹预测。 通过全尺寸自动驾驶车辆的仿真和真实实验验证了所提出的VLM-UDMC框架的有效性。 结果表明,所提出的VLM-UDMC能够有效利用场景理解和注意力分解进行合理的驾驶决策,从而提高整体城市驾驶性能。 我们的开源项目可在https://github.com/henryhcliu/vlmudmc.git获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.