计算机科学 > 计算机视觉与模式识别
[提交于 2024年12月31日
(v1)
,最后修订 2025年1月4日 (此版本, v2)]
标题: 让前馈重建模型作为三维生成模型的潜在编码器
标题: Taming Feed-forward Reconstruction Models as Latent Encoders for 3D Generative Models
摘要: 基于人工智能的3D内容创作最近主要沿着两个方向发展:前馈图像到3D重建方法和使用2D或3D监督训练的3D生成模型。在本工作中,我们表明现有的前馈重建方法可以作为训练3D生成模型的有效潜在编码器,从而弥合这两种范式。通过重用强大的预训练重建模型,我们避免了计算成本高昂的编码器网络训练,并免费获得了丰富的3D潜在特征用于生成建模。然而,由于重建模型的潜在空间具有无结构特性,因此并不适合生成建模。为了在这些潜在特征上进行基于流的模型训练,我们开发了后处理管道,包括标准化特征的协议和空间加权以专注于重要区域。我们进一步结合了2D图像空间感知渲染损失来处理高维潜在空间。最后,我们提出了一种多流变压器修正流架构,以实现线性扩展和高质量的文本条件3D生成。我们的框架利用前馈重建模型的进展来增强3D生成建模的可扩展性,在文本到3D生成中实现了高计算效率和最先进的性能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.