计算机科学 > 计算机视觉与模式识别
[提交于 2025年7月18日
]
标题: Depth3DLane:融合单目3D车道检测与自监督单目深度估计
标题: Depth3DLane: Fusing Monocular 3D Lane Detection with Self-Supervised Monocular Depth Estimation
摘要: 单目3D车道检测对于自动驾驶至关重要,但由于缺乏显式的空间信息而具有挑战性。多模态方法依赖于昂贵的深度传感器,而采用全监督深度网络的方法则依赖于难以大规模收集的真实深度数据。此外,现有方法假设可以获取相机参数,在像众包高清(HD)车道映射这样的场景中限制了其适用性。为解决这些限制,我们提出了Depth3DLane,一种新颖的双路径框架,该框架结合自监督单目深度估计来提供显式的结构信息,而无需昂贵的传感器或额外的真实深度数据。利用自监督深度网络获得场景的点云表示,我们的鸟瞰图路径提取显式的空间信息,而我们的前视图路径同时提取丰富的语义信息。Depth3DLane然后使用3D车道锚点从两个路径中采样特征并推断准确的3D车道几何形状。此外,我们将框架扩展到逐帧预测相机参数,并引入一个理论上有依据的拟合过程以在逐段基础上增强稳定性。大量实验表明,Depth3DLane在OpenLane基准数据集上实现了具有竞争力的性能。此外,实验结果表明,使用学习得到的参数而不是真实参数,使Depth3DLane能够在相机校准不可行的场景中应用,这与之前的方法不同。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.