Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2504.17331

帮助 | 高级搜索

计算机科学 > 人机交互

arXiv:2504.17331 (cs)
[提交于 2025年4月24日 ]

标题: 探索基于上下文感知和大型语言模型驱动的沉浸式虚拟现实运动方式

标题: Exploring Context-aware and LLM-driven Locomotion for Immersive Virtual Reality

Authors:Süleyman Özdel, Kadir Burak Buldu, Enkelejda Kasneci, Efe Bozkir
摘要: 运动在塑造虚拟现实环境中的用户体验方面起着至关重要的作用。特别是,免手持运动提供了一种有价值的替代方案,通过支持可访问性并让用户摆脱对手持控制器的依赖。然而,传统的基于语音的方法通常依赖于严格的命令集,限制了交互的自然性和灵活性。在这项研究中,我们提出了一种由大型语言模型(LLMs)驱动的新颖运动技术,使用户能够使用具有上下文感知的自然语言在虚拟环境中导航。我们评估了三种运动方法:基于控制器的瞬移、基于语音的方向控制以及我们的基于语言模型的方法。我们的评估指标包括眼动数据分析,包括通过SHAP分析的可解释机器学习,以及标准化问卷调查以衡量可用性、临场感、晕动症和认知负荷,以检查用户的注意力和参与度。我们的研究结果表明,由LLM驱动的运动在可用性、临场感和晕动症评分上与现有的方法(如瞬移)相当,展示了其作为舒适、基于自然语言、免手持替代方案的潜力。此外,它增强了用户在虚拟环境中的注意力,表明更高的参与度。此外,SHAP分析显示,注视、扫视和瞳孔相关特征在不同技术之间存在差异,表明视觉注意和认知处理的不同模式。总体而言,我们认为我们的方法可以促进虚拟空间中的免手持运动,特别是在支持可访问性方面。
摘要: Locomotion plays a crucial role in shaping the user experience within virtual reality environments. In particular, hands-free locomotion offers a valuable alternative by supporting accessibility and freeing users from reliance on handheld controllers. To this end, traditional speech-based methods often depend on rigid command sets, limiting the naturalness and flexibility of interaction. In this study, we propose a novel locomotion technique powered by large language models (LLMs), which allows users to navigate virtual environments using natural language with contextual awareness. We evaluate three locomotion methods: controller-based teleportation, voice-based steering, and our language model-driven approach. Our evaluation measures include eye-tracking data analysis, including explainable machine learning through SHAP analysis as well as standardized questionnaires for usability, presence, cybersickness, and cognitive load to examine user attention and engagement. Our findings indicate that the LLM-driven locomotion possesses comparable usability, presence, and cybersickness scores to established methods like teleportation, demonstrating its novel potential as a comfortable, natural language-based, hands-free alternative. In addition, it enhances user attention within the virtual environment, suggesting greater engagement. Complementary to these findings, SHAP analysis revealed that fixation, saccade, and pupil-related features vary across techniques, indicating distinct patterns of visual attention and cognitive processing. Overall, we state that our method can facilitate hands-free locomotion in virtual spaces, especially in supporting accessibility.
评论: 这项工作已被提交给IEEE以供可能发表
主题: 人机交互 (cs.HC) ; 人工智能 (cs.AI)
引用方式: arXiv:2504.17331 [cs.HC]
  (或者 arXiv:2504.17331v1 [cs.HC] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.17331
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Efe Bozkir [查看电子邮件]
[v1] 星期四, 2025 年 4 月 24 日 07:48:09 UTC (5,562 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs.AI
cs.HC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号