Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.16565

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2506.16565 (cs)
[提交于 2025年6月19日 ]

标题: 利用测试时观测干预的重新想象:视觉模型预测控制的干扰鲁棒世界模型预测

标题: Reimagination with Test-time Observation Interventions: Distractor-Robust World Model Predictions for Visual Model Predictive Control

Authors:Yuxin Chen, Jianglan Wei, Chenfeng Xu, Boyi Li, Masayoshi Tomizuka, Andrea Bajcsy, Ran Tian
摘要: 世界模型使机器人能够根据当前观测和计划的动作“想象”未来的观测,这些模型已被越来越多地用作广义的动力学模型,以促进机器人学习。 尽管它们前景广阔,但当遇到新颖的视觉干扰因素(如训练期间很少看到的对象和背景元素)时,这些模型仍然很脆弱。 具体来说,新颖的干扰因素会破坏动作结果预测,导致机器人依赖世界模型想象进行规划或动作验证时出现下游失败。 在这项工作中,我们提出了重想象与观察干预(ReOI),这是一种简单而有效的测试时间策略,使世界模型能够在开放世界场景中预测更可靠的动作结果,在这种场景中不可避免地存在新颖且未预料到的视觉干扰因素。 给定当前机器人的观测,ReOI首先通过识别场景中的哪些元素在世界模型预测过程中以物理上不可能的方式退化来检测视觉干扰因素。 然后,它修改当前观测以去除这些干扰因素,并使观测更接近训练分布。 最后,ReOI使用修改后的观测重新想象未来的结果,并在事后重新引入干扰因素,以保持下游规划和验证的视觉一致性。 我们在一组机器人操作任务中验证了我们的方法,这些任务涉及动作验证,其中验证器需要根据世界模型的预测选择期望的动作计划。 我们的结果显示,ReOI对分布内和分布外的视觉干扰因素都具有鲁棒性。 值得注意的是,在存在新颖干扰因素的情况下,任务成功率提高了多达3倍,显著优于依赖世界模型预测而不进行想象干预的动作验证。
摘要: World models enable robots to "imagine" future observations given current observations and planned actions, and have been increasingly adopted as generalized dynamics models to facilitate robot learning. Despite their promise, these models remain brittle when encountering novel visual distractors such as objects and background elements rarely seen during training. Specifically, novel distractors can corrupt action outcome predictions, causing downstream failures when robots rely on the world model imaginations for planning or action verification. In this work, we propose Reimagination with Observation Intervention (ReOI), a simple yet effective test-time strategy that enables world models to predict more reliable action outcomes in open-world scenarios where novel and unanticipated visual distractors are inevitable. Given the current robot observation, ReOI first detects visual distractors by identifying which elements of the scene degrade in physically implausible ways during world model prediction. Then, it modifies the current observation to remove these distractors and bring the observation closer to the training distribution. Finally, ReOI "reimagines" future outcomes with the modified observation and reintroduces the distractors post-hoc to preserve visual consistency for downstream planning and verification. We validate our approach on a suite of robotic manipulation tasks in the context of action verification, where the verifier needs to select desired action plans based on predictions from a world model. Our results show that ReOI is robust to both in-distribution and out-of-distribution visual distractors. Notably, it improves task success rates by up to 3x in the presence of novel distractors, significantly outperforming action verification that relies on world model predictions without imagination interventions.
主题: 机器人技术 (cs.RO) ; 人工智能 (cs.AI); 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.16565 [cs.RO]
  (或者 arXiv:2506.16565v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.16565
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Yuxin Chen [查看电子邮件]
[v1] 星期四, 2025 年 6 月 19 日 19:41:29 UTC (9,011 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.RO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.AI
cs.CV

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号