计算机科学 > 图形学
[提交于 2025年6月25日
]
标题: DreamAnywhere:以物体为中心的全景3D场景生成
标题: DreamAnywhere: Object-Centric Panoramic 3D Scene Generation
摘要: 最近在文本到3D场景生成方面的进展展示了显著的潜力,可以改变多个行业的内容创作方式。 尽管研究界在解决这一复杂任务的挑战方面取得了令人印象深刻的进展,但现有方法生成的环境通常只面向前方,缺乏视觉保真度,表现出有限的场景理解,并且通常仅针对室内或室外设置进行微调。 在本工作中,我们解决了这些问题,并提出了DreamAnywhere,这是一个用于快速生成和原型设计3D场景的模块化系统。 我们的系统从文本合成一个360{\deg }全景图像,将其分解为背景和物体,通过混合修复构建完整的3D表示,并将物体掩码提升为详细3D物体并放置在虚拟环境中。 DreamAnywhere支持沉浸式导航和直观的对象级编辑,使其非常适合场景探索、视觉样稿和快速原型设计——所有这些只需最少的手动建模。 这些特性使我们的系统特别适合低成本电影制作,可以在不涉及传统3D工作流程开销的情况下快速迭代场景布局和视觉基调。 我们的模块化流程高度可定制,因为它允许独立替换组件。 与当前最先进的基于文本和图像的3D场景生成方法相比, DreamAnywhere在新视角合成的一致性方面表现出显著改进,并实现了具有竞争力的图像质量,证明了其在多样且具有挑战性的场景中的有效性。 一项全面的用户研究表明,我们的方法明显优于现有方法,验证了其技术稳健性和实际实用性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.