计算机科学 > 人机交互
[提交于 2025年4月24日
]
标题: 探索基于上下文感知和大型语言模型驱动的沉浸式虚拟现实运动方式
标题: Exploring Context-aware and LLM-driven Locomotion for Immersive Virtual Reality
摘要: 运动在塑造虚拟现实环境中的用户体验方面起着至关重要的作用。特别是,免手持运动提供了一种有价值的替代方案,通过支持可访问性并让用户摆脱对手持控制器的依赖。然而,传统的基于语音的方法通常依赖于严格的命令集,限制了交互的自然性和灵活性。在这项研究中,我们提出了一种由大型语言模型(LLMs)驱动的新颖运动技术,使用户能够使用具有上下文感知的自然语言在虚拟环境中导航。我们评估了三种运动方法:基于控制器的瞬移、基于语音的方向控制以及我们的基于语言模型的方法。我们的评估指标包括眼动数据分析,包括通过SHAP分析的可解释机器学习,以及标准化问卷调查以衡量可用性、临场感、晕动症和认知负荷,以检查用户的注意力和参与度。我们的研究结果表明,由LLM驱动的运动在可用性、临场感和晕动症评分上与现有的方法(如瞬移)相当,展示了其作为舒适、基于自然语言、免手持替代方案的潜力。此外,它增强了用户在虚拟环境中的注意力,表明更高的参与度。此外,SHAP分析显示,注视、扫视和瞳孔相关特征在不同技术之间存在差异,表明视觉注意和认知处理的不同模式。总体而言,我们认为我们的方法可以促进虚拟空间中的免手持运动,特别是在支持可访问性方面。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.