计算机科学 > 计算机视觉与模式识别
[提交于 2025年7月16日
]
标题: 运动中的远见:通过奖励启发式方法加强轨迹预测
标题: Foresight in Motion: Reinforcing Trajectory Prediction with Reward Heuristics
摘要: 道路交通代理的运动预测对于确保自动驾驶系统的安全性既是一个重大挑战,也是一个关键需求。 与大多数直接预测未来轨迹的数据驱动方法不同,我们从规划的角度重新思考这一任务,倡导一种“先推理,后预测”的策略,将行为意图作为轨迹预测的空间指导。 为了实现这一点,我们引入了一个可解释的、基于奖励的意图推理器,该推理器建立在一种新颖的以查询为中心的逆强化学习(IRL)方案之上。 我们的方法首先将交通代理和场景元素编码为统一的向量化表示,然后通过以查询为中心的范式聚合上下文特征。 这使得能够通过IRL推导出一个奖励分布,这是在给定场景上下文中目标代理行为的紧凑而有信息的表示。 在这一奖励启发式的指导下,我们进行策略展开以推理多个可能的意图,为后续的轨迹生成提供有价值的先验知识。 最后,我们开发了一个层次化的DETR类似解码器,结合了双向选择状态空间模型,以生成准确的未来轨迹及其相关概率。 在大规模Argoverse和nuScenes运动预测数据集上的大量实验表明,我们的方法显著提高了轨迹预测的置信度,相对于最先进的方法取得了高度具有竞争力的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.