计算机科学 > 计算机视觉与模式识别
[提交于 2025年6月3日
]
标题: DyTact:捕捉手-物操作中的动态接触
标题: DyTact: Capturing Dynamic Contacts in Hand-Object Manipulation
摘要: 在人工智能角色动画、扩展现实(XR)和机器人领域中,重建动态手-物接触对于实现逼真的操作至关重要,但由于严重的遮挡、复杂的表面细节以及现有捕捉技术的局限性,这一问题仍然极具挑战性。 在本文中,我们提出了DyTact,这是一种无标记捕捉方法,能够在非侵入性的方式下准确捕捉手-物操作中的动态接触。 我们的方法基于二维高斯Surfel(表面元素)的动态、关节表示来建模复杂的操作。 通过将这些Surfel绑定到MANO网格上,DyTact利用模板模型的归纳偏置来稳定并加速优化过程。 一个精炼模块解决了与时间相关的高频变形问题,而一种基于接触引导的自适应采样策略则选择性地在接触区域增加Surfel密度,以应对严重的遮挡。 广泛的实验表明,DyTact不仅实现了最先进的动态接触估计精度,还显著提高了新视角合成的质量,同时保持了快速优化和高效内存使用。 项目页面:https://oliver-cong02.github.io/DyTact.github.io/ 。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.