Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.20936

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2506.20936 (cs)
[提交于 2025年6月26日 (v1) ,最后修订 2025年6月27日 (此版本, v2)]

标题: PhysRig:用于真实关节物体建模的可微分物理基础皮肤和绑定框架

标题: PhysRig: Differentiable Physics-Based Skinning and Rigging Framework for Realistic Articulated Object Modeling

Authors:Hao Zhang, Haolan Xu, Chun Feng, Varun Jampani, Narendra Ahuja
摘要: 皮肤和骨骼绑定是动画、刚体物体重建、运动转移和4D生成中的基本组成部分。 现有方法主要依赖于线性混合皮肤(LBS),因为其简单性和可微性。 然而,LBS会引入体积损失和不自然的变形等伪影,并且无法模拟像软组织、毛发和柔性附肢(例如,大象的鼻子、耳朵和脂肪组织)这样的弹性材料。 在本工作中,我们提出了PhysRig:一种可微的基于物理的皮肤和骨骼绑定框架,通过将刚性骨架嵌入到体积表示(例如,四面体网格)中,该网格被模拟为由动画骨架驱动的可变形软体结构,从而克服这些限制。 我们的方法利用连续力学,并将物体离散化为嵌入欧拉背景网格中的粒子,以确保对材料属性和骨骼运动的可微性。 此外,我们引入了材料原型,显著减少了学习空间,同时保持了高表达性。 为了评估我们的框架,我们使用来自Objaverse、The Amazing Animals Zoo和MixaMo的网格构建了一个综合的合成数据集,涵盖了多种物体类别和运动模式。 我们的方法始终优于传统的基于LBS的方法,生成更真实和物理上合理的结果。 此外,我们展示了我们框架在姿态迁移任务中的适用性,突显了其在刚体物体建模中的多功能性。
摘要: Skinning and rigging are fundamental components in animation, articulated object reconstruction, motion transfer, and 4D generation. Existing approaches predominantly rely on Linear Blend Skinning (LBS), due to its simplicity and differentiability. However, LBS introduces artifacts such as volume loss and unnatural deformations, and it fails to model elastic materials like soft tissues, fur, and flexible appendages (e.g., elephant trunks, ears, and fatty tissues). In this work, we propose PhysRig: a differentiable physics-based skinning and rigging framework that overcomes these limitations by embedding the rigid skeleton into a volumetric representation (e.g., a tetrahedral mesh), which is simulated as a deformable soft-body structure driven by the animated skeleton. Our method leverages continuum mechanics and discretizes the object as particles embedded in an Eulerian background grid to ensure differentiability with respect to both material properties and skeletal motion. Additionally, we introduce material prototypes, significantly reducing the learning space while maintaining high expressiveness. To evaluate our framework, we construct a comprehensive synthetic dataset using meshes from Objaverse, The Amazing Animals Zoo, and MixaMo, covering diverse object categories and motion patterns. Our method consistently outperforms traditional LBS-based approaches, generating more realistic and physically plausible results. Furthermore, we demonstrate the applicability of our framework in the pose transfer task highlighting its versatility for articulated object modeling.
评论: 已被ICCV 2025接受 页面:https://physrig.github.io/
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.20936 [cs.CV]
  (或者 arXiv:2506.20936v2 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.20936
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hao Zhang [查看电子邮件]
[v1] 星期四, 2025 年 6 月 26 日 01:58:09 UTC (25,298 KB)
[v2] 星期五, 2025 年 6 月 27 日 14:58:56 UTC (25,298 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号