计算机科学 > 计算机视觉与模式识别
[提交于 2025年8月4日
]
标题: 使用大型视觉-语言模型遵循路线指示:低级和全景动作空间的比较
标题: Following Route Instructions using Large Vision-Language Models: A Comparison between Low-level and Panoramic Action Spaces
摘要: 视觉与语言导航(VLN)是指使自主机器人通过遵循自然语言指令来导航不熟悉的环境的任务。 尽管最近的大型视觉-语言模型(LVLMs)在这个任务中显示出潜力,但大多数当前的VLM系统依赖于专门设计和优化的模型进行导航,使得现成的LVLMs的潜力尚未得到充分探索。 此外,虽然较早的VLN方法使用了以自我为中心视角和原子动作(如“向左转”或“向前移动”)的低级动作空间,但较新的模型倾向于选择具有离散可导航视点的全景动作空间。 本文研究了(1)现成的LVLMs(未经架构修改或基于模拟器的训练微调)是否能有效支持VLN任务,以及(2)这些模型是否能支持低级和全景动作范式。 为此,我们在Room-to-Room(R2R)数据集上对开源模型Qwen2.5-VL-3B-Instruct进行微调,并在其低级和全景动作空间中评估其经验性能。 最佳结果模型在R2R测试集上实现了41%的成功率,这表明虽然现成的LVLMs可以学习执行视觉与语言导航,但它们仍落后于专门为该任务设计的模型。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.