计算机科学 > 计算机视觉与模式识别
[提交于 2025年9月20日
]
标题: 从第一视角人-物体交互中的人体识别使用3D手部姿态
标题: Person Identification from Egocentric Human-Object Interactions using 3D Hand Pose
摘要: 人体-物体交互识别(HOIR)和用户识别在推动基于增强现实(AR)的个性化辅助技术方面起着关键作用。 这些系统正越来越多地部署在高风险、以人类为中心的环境中,如飞机驾驶舱、航天维护和外科手术中。 本研究介绍了I2S(Interact2Sign),这是一个多阶段框架,旨在通过人体-物体交互识别实现无侵入式的用户识别,利用第一人称视频中的3D手部姿态分析。 I2S利用从3D手部姿态中提取的手工特征,并执行顺序特征增强:首先识别物体类别,然后进行HOI识别,最后进行用户识别。 对3D手部姿态进行了全面的特征提取和描述过程,将提取的特征组织成语义上有意义的类别:空间、频率、运动学、方向,以及本研究中引入的一种新描述符,即跨手空间包络(IHSE)。 进行了广泛的消融实验,以确定最有效的特征组合。 最优配置在从ARCTIC和H2O数据集中派生的双侧物体操作数据集上实现了令人印象深刻的平均F1分数为97.52%。 I2S在保持模型大小低于4 MB且推理时间仅为0.1秒的情况下表现出最先进的性能。 这些特性使所提出的框架非常适合在安全关键的AR系统中进行实时、设备端的身份验证。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.