Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.04689

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2501.04689 (cs)
[提交于 2025年1月8日 ]

标题: SPAR3D:从单张图像中稳定点感知的3D物体重建

标题: SPAR3D: Stable Point-Aware Reconstruction of 3D Objects from Single Images

Authors:Zixuan Huang, Mark Boss, Aaryaman Vasishta, James M. Rehg, Varun Jampani
摘要: 我们研究单图像3D物体重建问题。 最近的工作分为两个方向:基于回归的建模和生成建模。 基于回归的方法能高效推断可见表面,但在遮挡区域表现不佳。 生成方法通过建模分布更好地处理不确定区域,但计算成本高,且生成结果常与可见表面不一致。 在本文中,我们提出SPAR3D,一种新颖的两阶段方法,旨在结合两种方向的优势。 SPAR3D的第一阶段使用轻量级点扩散模型生成稀疏的3D点云,具有快速采样速度。 第二阶段利用采样的点云和输入图像生成高度详细的网格。 我们的两阶段设计能够在保持高计算效率和出色输出保真度的同时,对病态的单图像3D任务进行概率建模。 使用点云作为中间表示进一步允许交互式用户编辑。 在多种数据集上评估,SPAR3D在推理速度为0.7秒的情况下,表现出优于先前最先进方法的性能。 项目页面包含代码和模型:https://spar3d.github.io
摘要: We study the problem of single-image 3D object reconstruction. Recent works have diverged into two directions: regression-based modeling and generative modeling. Regression methods efficiently infer visible surfaces, but struggle with occluded regions. Generative methods handle uncertain regions better by modeling distributions, but are computationally expensive and the generation is often misaligned with visible surfaces. In this paper, we present SPAR3D, a novel two-stage approach aiming to take the best of both directions. The first stage of SPAR3D generates sparse 3D point clouds using a lightweight point diffusion model, which has a fast sampling speed. The second stage uses both the sampled point cloud and the input image to create highly detailed meshes. Our two-stage design enables probabilistic modeling of the ill-posed single-image 3D task while maintaining high computational efficiency and great output fidelity. Using point clouds as an intermediate representation further allows for interactive user edits. Evaluated on diverse datasets, SPAR3D demonstrates superior performance over previous state-of-the-art methods, at an inference speed of 0.7 seconds. Project page with code and model: https://spar3d.github.io
主题: 计算机视觉与模式识别 (cs.CV) ; 图形学 (cs.GR)
引用方式: arXiv:2501.04689 [cs.CV]
  (或者 arXiv:2501.04689v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.04689
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Mark Boss [查看电子邮件]
[v1] 星期三, 2025 年 1 月 8 日 18:52:03 UTC (4,901 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.GR

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号