计算机科学 > 机器人技术
[提交于 2025年6月23日
]
标题: 雷达与事件相机融合用于敏捷机器人自运动估计
标题: Radar and Event Camera Fusion for Agile Robot Ego-Motion Estimation
摘要: 实现敏捷机器人(例如特技飞机)的可靠自我运动估计仍然具有挑战性,因为大多数机器人传感器无法及时且清晰地响应高度动态的机器人运动,这通常会导致测量模糊、失真和延迟。 在本文中,我们提出了一种无需IMU和特征关联的框架,通过结合两种类型的外感受传感器——事件相机和毫米波雷达,以在高度动态场景中实现机器人平台的激进自我运动速度估计。 首先,我们使用瞬时原始事件和多普勒测量来直接推导旋转和线性速度。 由于不需要测量帧之间的复杂关联过程,该方法在无纹理和无结构的环境中更具鲁棒性,并且对边缘计算设备更高效。 然后,在后端,我们提出了一种连续时间状态空间模型,以融合基于时间的混合测量和事件测量,以固定滞后平滑的方式估计自我运动速度。 最后,我们在自收集的实验数据集上广泛验证了我们的速度计框架。 结果表明,我们的无需IMU和关联的自我运动估计框架可以在具有挑战性的环境中实现可靠且高效的速度输出。 源代码、示例视频和数据集可在https://github.com/ZzhYgwh/TwistEstimator获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.