Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.12557

帮助 | 高级搜索

计算机科学 > 人机交互

arXiv:2501.12557 (cs)
[提交于 2025年1月22日 ]

标题: 理解LLM化CHI:通过系统文献综述剖析LLMs对CHI的影响

标题: Understanding the LLM-ification of CHI: Unpacking the Impact of LLMs at CHI through a Systematic Literature Review

Authors:Rock Yuren Pang, Hope Schroeder, Kynnedy Simone Smith, Solon Barocas, Ziang Xiao, Emily Tseng, Danielle Bragg
摘要: 大型语言模型(LLMs)被定位为将彻底改变人机交互(HCI),不仅重塑我们研究的界面、设计模式和社会技术系统,还重塑我们使用的研究实践。然而到目前为止,人们对LLMs在HCI中的采用仍了解甚少。我们通过系统文献综述了2020-24年间153篇涉及LLMs的CHI论文来弥补这一空白。我们对以下方面进行了分类:(1)LLMs应用的领域;(2)LLMs在HCI项目中的角色;(3)贡献类型;以及(4)已知的局限性和风险。我们发现LLM工作涉及10个不同的领域,主要通过实证和成果贡献。作者在五个不同的角色中使用LLM,包括作为研究工具或模拟用户。然而,作者经常提出有效性和可重复性问题,并且绝大多数研究的是封闭模型。我们概述了利用LLM改进HCI研究的机会,并为研究人员提供了考虑LLM相关工作的有效性和适当性的指导问题。
摘要: Large language models (LLMs) have been positioned to revolutionize HCI, by reshaping not only the interfaces, design patterns, and sociotechnical systems that we study, but also the research practices we use. To-date, however, there has been little understanding of LLMs' uptake in HCI. We address this gap via a systematic literature review of 153 CHI papers from 2020-24 that engage with LLMs. We taxonomize: (1) domains where LLMs are applied; (2) roles of LLMs in HCI projects; (3) contribution types; and (4) acknowledged limitations and risks. We find LLM work in 10 diverse domains, primarily via empirical and artifact contributions. Authors use LLMs in five distinct roles, including as research tools or simulated users. Still, authors often raise validity and reproducibility concerns, and overwhelmingly study closed models. We outline opportunities to improve HCI research with and on LLMs, and provide guiding questions for researchers to consider the validity and appropriateness of LLM-related work.
评论: 这是论文的预印本版本,该论文已有条件接受至CHI'25
主题: 人机交互 (cs.HC) ; 人工智能 (cs.AI); 计算与语言 (cs.CL); 计算机与社会 (cs.CY)
引用方式: arXiv:2501.12557 [cs.HC]
  (或者 arXiv:2501.12557v1 [cs.HC] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.12557
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Rock Yuren Pang [查看电子邮件]
[v1] 星期三, 2025 年 1 月 22 日 00:31:51 UTC (382 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.CL
cs.CY
cs.HC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号