计算机科学 > 人机交互
[提交于 2025年7月10日
]
标题: ArchiveGPT:使用视觉语言模型进行图像编目的以人为本评估
标题: ArchiveGPT: A human-centered evaluation of using a vision language model for image cataloguing
摘要: 摄影资料的快速增长已经超过了人工编目,促使使用视觉语言模型(VLMs)来自动化元数据生成。 本研究考察了人工智能生成的目录描述能否近似于人工撰写的质量,以及生成式人工智能如何整合到档案和博物馆资料的编目工作中。 一个视觉语言模型(InternVL2)为带有考古内容标签的卡纸底座上的摄影作品生成了目录描述,在一个人为中心的实验框架中由档案和考古专家以及非专家进行评估。 参与者将描述分类为人工智能生成或专家撰写,评估质量,并报告使用和信任人工智能工具的意愿。 分类性能高于随机水平,两组都低估了自己检测人工智能生成描述的能力。 OCR错误和幻觉限制了感知质量,但评分更高的准确性及实用性描述更难分类,这表明需要人工审查以确保由现成模型生成的目录描述的准确性和质量,特别是在考古目录等专业领域。 专家对采用人工智能工具的意愿较低,强调了保存责任而非技术性能的担忧。 这些发现倡导一种协作方法,其中人工智能支持草稿生成,但应从属于人工验证,以确保与策展价值观(例如来源、透明度)一致。 这种方法的成功整合不仅取决于技术进步,如特定领域的微调,而且更重要的是建立专业人士之间的信任,这可以通过一个透明和可解释的人工智能流程来促进。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.