计算机科学 > 机器人技术
[提交于 2025年6月27日
]
标题: 像素到图:用于语义几何人机理解的建筑信息模型与场景图的实时集成
标题: Pixels-to-Graph: Real-time Integration of Building Information Models and Scene Graphs for Semantic-Geometric Human-Robot Understanding
摘要: 自主机器人在高风险、危险的应用中作为人类操作员的支持平台,正发挥着越来越重要的作用。 为了完成具有挑战性的任务,需要高效的一个人机协作和理解。 虽然通常机器人规划利用3D几何信息,但人类操作员习惯于环境的高层紧凑表示,如俯视2D地图,代表建筑信息模型(BIM)。 3D场景图已成为一种强大的工具,以弥合人类可读的2D BIM和机器人3D地图之间的差距。 在这项工作中,我们引入了像素到图(Pix2G),一种新颖的轻量级方法,可在资源受限的机器人平台上实时从图像像素和LiDAR地图生成结构化的场景图,用于未知环境的自主探索。 为了满足机载计算约束,该框架设计为仅在CPU上执行所有操作。 该方法的输出是一个去噪的2D俯视环境地图和一个结构分割的3D点云,这些通过一个多层图无缝连接,从物体级别到建筑级别抽象信息。 所提出的方法在使用NASA JPL NeBula-Spot四足机器人进行的现实世界实验中进行了定量和定性评估,以实时自主探索和映射杂乱的车库和城市办公室类似环境。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.