Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.11797

帮助 | 高级搜索

计算机科学 > 人机交互

arXiv:2507.11797 (cs)
[提交于 2025年7月15日 ]

标题: GIST:混合现实中的群体交互感知工具包

标题: GIST: Group Interaction Sensing Toolkit for Mixed Reality

Authors:Diana Romero, Yasra Chandio, Fatima Anwar, Salma Elmalaki
摘要: 理解团队在沉浸式环境中如何协调、共享工作和协商角色对于设计支持实时协作的有效混合现实(MR)应用至关重要。 然而,现有方法要么依赖外部摄像头和离线标注,要么仅专注于单一模态,限制了其有效性和适用性。 为了解决这个问题,我们提出了一种新颖的群体交互感知工具包(GIST),这是一个可部署的系统,能够被动地捕获多模态交互数据,例如来自商品MR头显传感器的语音、注视和空间接近度,并自动推导出整体静态交互网络和动态逐时刻行为模式。 我们通过一项涉及48名参与者、12个四人小组在MR中执行开放式图像分类任务的人类受试者研究来评估GIST。我们的分析表明,识别出的行为模式与交互网络结构的变化之间存在强烈的一致性,证实了通过传感器数据可以观察到语音、注视和接近度数据的短暂变化。
摘要: Understanding how teams coordinate, share work, and negotiate roles in immersive environments is critical for designing effective mixed-reality (MR) applications that support real-time collaboration. However, existing methods either rely on external cameras and offline annotation or focus narrowly on single modalities, limiting their validity and applicability. To address this, we present a novel group interaction sensing toolkit (GIST), a deployable system that passively captures multi-modal interaction data, such as speech, gaze, and spatial proximity from commodity MR headset's sensors and automatically derives both overall static interaction networks and dynamic moment-by-moment behavior patterns. We evaluate GIST with a human subject study with 48 participants across 12 four-person groups performing an open-ended image-sorting task in MR. Our analysis shows strong alignment between the identified behavior modes and shifts in interaction network structure, confirming that momentary changes in speech, gaze, and proximity data are observable through the sensor data.
评论: 11页,6图
主题: 人机交互 (cs.HC) ; 新兴技术 (cs.ET)
引用方式: arXiv:2507.11797 [cs.HC]
  (或者 arXiv:2507.11797v1 [cs.HC] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.11797
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Diana Romero [查看电子邮件]
[v1] 星期二, 2025 年 7 月 15 日 23:21:28 UTC (923 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.HC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.ET

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号