计算机科学 > 计算机视觉与模式识别
[提交于 2025年6月2日
]
标题: 实体图像与多模态图像检索数据集
标题: Entity Image and Mixed-Modal Image Retrieval Datasets
摘要: 尽管多模态学习取得了进展,但缺乏结合视觉和文本信息的混合模态图像检索的具有挑战性的基准测试。 本文介绍了一个新的基准测试,以严格评估需要深入跨模态上下文理解的图像检索。 我们提出了两个新数据集:实体图像数据集(EI),为维基百科实体提供规范图像;以及混合模态图像检索数据集(MMIR),源自WIT数据集。 MMIR基准测试包含两种具有挑战性的查询类型,要求模型将文本描述与提供的视觉实体上下文关联起来:单一实体-图像查询(一个带有描述性文本的实体图像)和多实体-图像查询(多个带有关系文本的实体图像)。 我们通过经验验证了该基准测试作为混合模态检索训练语料库和评估集的实用性。 通过众包人类标注进一步证实了这两个数据集的质量。 这些数据集可以通过GitHub页面访问:https://github.com/google-research-datasets/wit-retrieval。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.