Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.01389

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2506.01389 (cs)
[提交于 2025年6月2日 ]

标题: 具有静态图案投影的多视图神经形状重建

标题: Neural shape reconstruction from multiple views with static pattern projection

Authors:Ryo Furukawa, Kota Nishihara, Hiroshi Kawasaki
摘要: 基于主动立体视觉的三维形状测量对于工业检测、逆向工程和医疗系统等多种用途至关重要,因为它能够准确获取无纹理物体的形状。 主动立体系统通常由一个相机和一个图案投影仪组成,它们被牢固地固定在一起,并且需要精确校准相机和投影仪之间的关系,这反过来降低了系统的可用性。 如果在形状扫描过程中相机和投影仪可以自由移动,则会极大地提高系统的可用性。 为了实现这一点,我们提出了一种技术,通过捕获多张图像并在相机和投影仪运动的同时自动校准它们的相对姿态(使用基于神经符号距离场 (NeuralSDF) 的新型体积微分渲染技术)来恢复目标物体的形状。 在实验中,通过使用合成图像和真实图像进行三维重建来评估所提出的方法。
摘要: Active-stereo-based 3D shape measurement is crucial for various purposes, such as industrial inspection, reverse engineering, and medical systems, due to its strong ability to accurately acquire the shape of textureless objects. Active stereo systems typically consist of a camera and a pattern projector, tightly fixed to each other, and precise calibration between a camera and a projector is required, which in turn decreases the usability of the system. If a camera and a projector can be freely moved during shape scanning process, it will drastically increase the convenience of the usability of the system. To realize it, we propose a technique to recover the shape of the target object by capturing multiple images while both the camera and the projector are in motion, and their relative poses are auto-calibrated by our neural signed-distance-field (NeuralSDF) using novel volumetric differential rendering technique. In the experiment, the proposed method is evaluated by performing 3D reconstruction using both synthetic and real images.
评论: 6页,CVPR 2025神经场超越常规相机研讨会
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.01389 [cs.CV]
  (或者 arXiv:2506.01389v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.01389
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Kota Nishihara [查看电子邮件]
[v1] 星期一, 2025 年 6 月 2 日 07:29:18 UTC (7,543 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号