Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.05163

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2507.05163 (cs)
[提交于 2025年7月7日 ]

标题: 4DSloMo:异步采集的高速场景4D重建

标题: 4DSloMo: 4D Reconstruction for High Speed Scene with Asynchronous Capture

Authors:Yutian Chen, Shi Guo, Tianshuo Yang, Lihe Ding, Xiuyuan Yu, Jinwei Gu, Tianfan Xue
摘要: 从多视角视频中重建快速动态场景对于高速运动分析和真实4D重建至关重要。 然而,大多数4D捕捉系统受限于低于30 FPS(每秒帧数)的帧率,直接从低FPS输入进行高速运动的4D重建可能会导致不良结果。 在本工作中,我们提出了一种仅使用低FPS相机的高速4D捕捉系统,通过新颖的捕捉和处理模块。 在捕捉方面,我们提出了一种异步捕捉方案,通过错开相机的启动时间来提高有效帧率。 通过将相机分组并利用25 FPS的基础帧率,我们的方法实现了100-200 FPS的等效帧率,而无需专门的高速相机。 在处理方面,我们还提出了一种新的生成模型来修复由4D稀疏视角重建引起的伪影,因为异步性会减少每个时间戳的视角数量。 具体来说,我们提出训练一种基于视频扩散的伪影修复模型用于稀疏4D重建,该模型可以细化缺失细节,保持时间一致性,并提高整体重建质量。 实验结果表明,与同步捕捉相比,我们的方法显著提升了高速4D重建效果。
摘要: Reconstructing fast-dynamic scenes from multi-view videos is crucial for high-speed motion analysis and realistic 4D reconstruction. However, the majority of 4D capture systems are limited to frame rates below 30 FPS (frames per second), and a direct 4D reconstruction of high-speed motion from low FPS input may lead to undesirable results. In this work, we propose a high-speed 4D capturing system only using low FPS cameras, through novel capturing and processing modules. On the capturing side, we propose an asynchronous capture scheme that increases the effective frame rate by staggering the start times of cameras. By grouping cameras and leveraging a base frame rate of 25 FPS, our method achieves an equivalent frame rate of 100-200 FPS without requiring specialized high-speed cameras. On processing side, we also propose a novel generative model to fix artifacts caused by 4D sparse-view reconstruction, as asynchrony reduces the number of viewpoints at each timestamp. Specifically, we propose to train a video-diffusion-based artifact-fix model for sparse 4D reconstruction, which refines missing details, maintains temporal consistency, and improves overall reconstruction quality. Experimental results demonstrate that our method significantly enhances high-speed 4D reconstruction compared to synchronous capture.
评论: 网页:https://openimaginglab.github.io/4DSloMo/
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2507.05163 [cs.CV]
  (或者 arXiv:2507.05163v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.05163
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Yutian Chen [查看电子邮件]
[v1] 星期一, 2025 年 7 月 7 日 16:18:35 UTC (7,755 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号