Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.12573

帮助 | 高级搜索

计算机科学 > 多媒体

arXiv:2501.12573 (cs)
[提交于 2025年1月22日 ]

标题: 利用大语言模型创建触觉设备推荐系统

标题: Leveraging LLMs to Create a Haptic Devices' Recommendation System

Authors:Yang Liu, Haiwei Dong, Abdulmotaleb El Saddik
摘要: 触觉技术已取得显著发展,但对现有触觉设备设计知识的认识不足阻碍了其发展。 本文通过利用大型语言模型(LLMs)的进步来开发一个触觉代理,特别关注于基于场景的力反馈(GFF)设备推荐。 我们的方法涉及使用来自研究论文和产品规格的信息自动化创建结构化的触觉设备数据库。 该数据库可根据用户查询推荐相关的GFF设备。 为了确保精确且上下文相关的推荐,系统采用了一种结合条件和语义搜索的动态检索方法。 与现有的UEQ和触觉设备搜索工具进行基准比较,所提出的触觉推荐代理在所有UEQ类别中排名前10%,在几乎所有子量表上均显示出平均差异的优势,并在不同用户群体中保持无显著性能偏差,展示了卓越的可用性和用户满意度。
摘要: Haptic technology has seen significant growth, yet a lack of awareness of existing haptic device design knowledge hinders development. This paper addresses these limitations by leveraging advancements in Large Language Models (LLMs) to develop a haptic agent, focusing specifically on Grounded Force Feedback (GFF) devices recommendation. Our approach involves automating the creation of a structured haptic device database using information from research papers and product specifications. This database enables the recommendation of relevant GFF devices based on user queries. To ensure precise and contextually relevant recommendations, the system employs a dynamic retrieval method that combines both conditional and semantic searches. Benchmarking against the established UEQ and existing haptic device searching tools, the proposed haptic recommendation agent ranks in the top 10\% across all UEQ categories with mean differences favoring the agent in nearly all subscales, and maintains no significant performance bias across different user groups, showcasing superior usability and user satisfaction.
主题: 多媒体 (cs.MM) ; 人工智能 (cs.AI); 人机交互 (cs.HC); 系统与控制 (eess.SY)
引用方式: arXiv:2501.12573 [cs.MM]
  (或者 arXiv:2501.12573v1 [cs.MM] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.12573
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Haiwei Dong [查看电子邮件]
[v1] 星期三, 2025 年 1 月 22 日 01:41:05 UTC (1,045 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs.AI
cs.HC
cs.MM
cs.SY
eess
eess.SY

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号