Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.01933v2

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2506.01933v2 (cs)
[提交于 2025年6月2日 (v1) ,最后修订 2025年6月9日 (此版本, v2)]

标题: E3D-Bench:端到端3D几何基础模型的基准测试

标题: E3D-Bench: A Benchmark for End-to-End 3D Geometric Foundation Models

Authors:Wenyan Cong, Yiqing Liang, Yancheng Zhang, Ziyi Yang, Yan Wang, Boris Ivanovic, Marco Pavone, Chen Chen, Zhangyang Wang, Zhiwen Fan
摘要: 空间智能,包括三维重建、感知和推理,是机器人、航空成像和扩展现实等应用的基础。一个关键的推动因素是从非结构化或流式图像中实时、准确地估计核心三维属性(相机参数、点云、深度图和三维点轨迹)。 受到大型基础模型在语言和二维视觉领域成功的影响,一种新的端到端三维几何基础模型(GFMs)类涌现出来,可以直接预测密集的三维表示,在单一前馈过程中完成,消除了对缓慢或不可用的预计算相机参数的需求。 自2023年末以来,该领域涌现出各种变体,但缺乏系统评估。 在这项工作中,我们提出了第一个针对三维GFMs的全面基准测试,涵盖了五个核心任务:稀疏视图深度估计、视频深度估计、三维重建、多视图姿态估计、新视图合成,并涵盖了标准和具有挑战性的分布外数据集。 我们的标准化工具包实现了数据集处理、评估协议和指标计算的自动化,以确保公平、可重复的比较。 我们评估了16种最先进的GFMs,在任务和领域上揭示了它们的优势和局限性,并得出了指导未来模型扩展和优化的关键见解。 所有代码、评估脚本和处理后的数据都将公开发布,以加速三维空间智能领域的研究。
摘要: Spatial intelligence, encompassing 3D reconstruction, perception, and reasoning, is fundamental to applications such as robotics, aerial imaging, and extended reality. A key enabler is the real-time, accurate estimation of core 3D attributes (camera parameters, point clouds, depth maps, and 3D point tracks) from unstructured or streaming imagery. Inspired by the success of large foundation models in language and 2D vision, a new class of end-to-end 3D geometric foundation models (GFMs) has emerged, directly predicting dense 3D representations in a single feed-forward pass, eliminating the need for slow or unavailable precomputed camera parameters. Since late 2023, the field has exploded with diverse variants, but systematic evaluation is lacking. In this work, we present the first comprehensive benchmark for 3D GFMs, covering five core tasks: sparse-view depth estimation, video depth estimation, 3D reconstruction, multi-view pose estimation, novel view synthesis, and spanning both standard and challenging out-of-distribution datasets. Our standardized toolkit automates dataset handling, evaluation protocols, and metric computation to ensure fair, reproducible comparisons. We evaluate 16 state-of-the-art GFMs, revealing their strengths and limitations across tasks and domains, and derive key insights to guide future model scaling and optimization. All code, evaluation scripts, and processed data will be publicly released to accelerate research in 3D spatial intelligence.
评论: 项目页面:https://e3dbench.github.io/
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.01933 [cs.CV]
  (或者 arXiv:2506.01933v2 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.01933
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Wenyan Cong [查看电子邮件]
[v1] 星期一, 2025 年 6 月 2 日 17:53:09 UTC (13,413 KB)
[v2] 星期一, 2025 年 6 月 9 日 17:59:01 UTC (13,429 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号