Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.04144

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2501.04144 (cs)
[提交于 2025年1月7日 (v1) ,最后修订 2025年3月28日 (此版本, v2)]

标题: Chirpy3D:通过部件采样进行创意细粒度3D物体制造

标题: Chirpy3D: Creative Fine-grained 3D Object Fabrication via Part Sampling

Authors:Kam Woh Ng, Jing Yang, Jia Wei Sii, Jiankang Deng, Chee Seng Chan, Yi-Zhe Song, Tao Xiang, Xiatian Zhu
摘要: 我们提出Chirpy3D,一种用于细粒度3D物体生成的新方法,解决在零样本设置下合成创造性的3D物体的挑战性任务,仅能访问已见类别的无姿势2D图像。 在没有结构化监督的情况下——如相机姿态、3D部件注释或特定物体标签——模型必须推断出合理的3D结构,捕捉细粒度细节,并仅使用已见类别的类别级标签来推广到新物体。 为了解决这个问题,Chirpy3D引入了一个多视图扩散模型,以无监督的方式将训练物体分解为锚定部件,将已见和未见部件的潜在空间表示为连续分布。 这使得部件可以平滑插值和灵活重组,生成具有物种特异性细节的全新物体。 一种自监督特征一致性损失进一步确保了结构和语义的一致性。 结果是第一个能够通过灵活的部件采样和组合生成完全新颖的3D物体并具有物种特异性细粒度细节的系统。 我们的实验表明,Chirpy3D在生成高质量且具有细粒度细节的创造性3D物体方面优于现有方法。 代码将在https://github.com/kamwoh/chirpy3d发布。
摘要: We present Chirpy3D, a novel approach for fine-grained 3D object generation, tackling the challenging task of synthesizing creative 3D objects in a zero-shot setting, with access only to unposed 2D images of seen categories. Without structured supervision -- such as camera poses, 3D part annotations, or object-specific labels -- the model must infer plausible 3D structures, capture fine-grained details, and generalize to novel objects using only category-level labels from seen categories. To address this, Chirpy3D introduces a multi-view diffusion model that decomposes training objects into anchor parts in an unsupervised manner, representing the latent space of both seen and unseen parts as continuous distributions. This allows smooth interpolation and flexible recombination of parts to generate entirely new objects with species-specific details. A self-supervised feature consistency loss further ensures structural and semantic coherence. The result is the first system capable of generating entirely novel 3D objects with species-specific fine-grained details through flexible part sampling and composition. Our experiments demonstrate that Chirpy3D surpasses existing methods in generating creative 3D objects with higher quality and fine-grained details. Code will be released at https://github.com/kamwoh/chirpy3d.
评论: 19页
主题: 计算机视觉与模式识别 (cs.CV) ; 图形学 (cs.GR)
引用方式: arXiv:2501.04144 [cs.CV]
  (或者 arXiv:2501.04144v2 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.04144
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Kam Woh Ng [查看电子邮件]
[v1] 星期二, 2025 年 1 月 7 日 21:14:11 UTC (27,086 KB)
[v2] 星期五, 2025 年 3 月 28 日 19:45:00 UTC (9,009 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.GR

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号