Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.01206

帮助 | 高级搜索

计算机科学 > 机器人技术

arXiv:2507.01206 (cs)
[提交于 2025年7月1日 ]

标题: 2024年NASA宇航服报告:用于机器人和太空探索的基于大语言模型的沉浸式增强现实用户界面

标题: 2024 NASA SUITS Report: LLM-Driven Immersive Augmented Reality User Interface for Robotics and Space Exploration

Authors:Kathy Zhuang, Zixun Huang, Yukun Song, Rui Li, Yinuo Zhou, Allen Y. Yang
摘要: 随着现代计算技术的进步,新的交互范式已经出现,特别是在增强现实(AR)中,它将虚拟界面叠加在物理物体上。 这种演变在机器感知方面带来了挑战,尤其是在复杂、动态环境中的3D物体姿态估计任务。 我们的项目解决了移动AR中人机交互中的关键问题,重点是无干扰的、空间感知的界面。 我们提出了URSA,一个由大型语言模型驱动的沉浸式AR系统,专为NASA的2023-2024 SUITS挑战而开发,旨在满足未来航天飞行需求,如阿耳忒弥斯任务。 URSA集成了三项核心技术:用于直观视觉反馈的头戴式AR设备(例如HoloLens),由大型语言模型支持的语音控制以实现无手操作,以及机器人跟踪算法,可在动态环境中实现精确的3D定位。 为了提高精度,我们利用了数字孪生定位技术,使用DTTD-Mobile等数据集和ZED2相机等专用硬件,在噪声和遮挡条件下进行真实世界跟踪。 我们的系统即使在没有地面真实传感器的情况下,也能通过AR界面实现实时机器人控制和监控——这对于危险或远程操作至关重要。 主要贡献包括: (1) 一种基于LLM的语音输入的无干扰AR界面;(2) 一种基于ZED2的数据集,专门针对非刚性机器人身体;(3) 一种本地任务控制台(LMCC)用于任务可视化;(4) 一种基于Transformer的6DoF姿态估计器(DTTDNet),优化了深度融合和实时跟踪;以及(5) 用于宇航员任务支持的端到端集成。 这项工作推动了机器人技术中数字孪生应用的发展,为航空航天和工业领域提供了可扩展的解决方案。
摘要: As modern computing advances, new interaction paradigms have emerged, particularly in Augmented Reality (AR), which overlays virtual interfaces onto physical objects. This evolution poses challenges in machine perception, especially for tasks like 3D object pose estimation in complex, dynamic environments. Our project addresses critical issues in human-robot interaction within mobile AR, focusing on non-intrusive, spatially aware interfaces. We present URSA, an LLM-driven immersive AR system developed for NASA's 2023-2024 SUITS challenge, targeting future spaceflight needs such as the Artemis missions. URSA integrates three core technologies: a head-mounted AR device (e.g., HoloLens) for intuitive visual feedback, voice control powered by large language models for hands-free interaction, and robot tracking algorithms that enable accurate 3D localization in dynamic settings. To enhance precision, we leverage digital twin localization technologies, using datasets like DTTD-Mobile and specialized hardware such as the ZED2 camera for real-world tracking under noise and occlusion. Our system enables real-time robot control and monitoring via an AR interface, even in the absence of ground-truth sensors--vital for hazardous or remote operations. Key contributions include: (1) a non-intrusive AR interface with LLM-based voice input; (2) a ZED2-based dataset tailored for non-rigid robotic bodies; (3) a Local Mission Control Console (LMCC) for mission visualization; (4) a transformer-based 6DoF pose estimator (DTTDNet) optimized for depth fusion and real-time tracking; and (5) end-to-end integration for astronaut mission support. This work advances digital twin applications in robotics, offering scalable solutions for both aerospace and industrial domains.
主题: 机器人技术 (cs.RO) ; 人机交互 (cs.HC)
引用方式: arXiv:2507.01206 [cs.RO]
  (或者 arXiv:2507.01206v1 [cs.RO] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.01206
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zixun Huang [查看电子邮件]
[v1] 星期二, 2025 年 7 月 1 日 21:54:35 UTC (15,527 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.RO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.HC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号