Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.01691

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2506.01691 (cs)
[提交于 2025年6月2日 ]

标题: SteerPose:基于关节运动的同时外参相机标定与匹配

标题: SteerPose: Simultaneous Extrinsic Camera Calibration and Matching from Articulation

Authors:Sang-Eun Lee, Ko Nishino, Shohei Nobuhara
摘要: 自由移动的人类或动物本身能否作为多摄像机系统的校准目标,同时估计它们在不同视角之间的对应关系? 我们人类可以通过在心理上旋转观察到的二维姿态,并将其与目标视角中的姿态对齐来解决这个问题。 受这种认知能力的启发,我们提出了 SteerPose,这是一种能够将二维姿态旋转到另一视角的神经网络。 通过集成可微匹配,SteerPose 在单一统一框架内同时执行外参相机标定和对应关系搜索。 我们还引入了一种新颖的几何一致性损失函数,明确确保估计的旋转和对应关系导致有效的平移估计。 在各种野外人类和动物数据集上的实验结果验证了所提出方法的有效性和鲁棒性。 此外,我们展示了我们的方法可以通过利用现成的二维姿态估计器和我们的类别无关模型,在多摄像机设置下重建新型动物的三维姿态。
摘要: Can freely moving humans or animals themselves serve as calibration targets for multi-camera systems while simultaneously estimating their correspondences across views? We humans can solve this problem by mentally rotating the observed 2D poses and aligning them with those in the target views. Inspired by this cognitive ability, we propose SteerPose, a neural network that performs this rotation of 2D poses into another view. By integrating differentiable matching, SteerPose simultaneously performs extrinsic camera calibration and correspondence search within a single unified framework. We also introduce a novel geometric consistency loss that explicitly ensures that the estimated rotation and correspondences result in a valid translation estimation. Experimental results on diverse in-the-wild datasets of humans and animals validate the effectiveness and robustness of the proposed method. Furthermore, we demonstrate that our method can reconstruct the 3D poses of novel animals in multi-camera setups by leveraging off-the-shelf 2D pose estimators and our class-agnostic model.
评论: 13页
主题: 计算机视觉与模式识别 (cs.CV)
引用方式: arXiv:2506.01691 [cs.CV]
  (或者 arXiv:2506.01691v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.01691
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Sang-Eun Lee [查看电子邮件]
[v1] 星期一, 2025 年 6 月 2 日 13:52:35 UTC (34,861 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号