计算机科学 > 计算与语言
[提交于 2024年12月31日
]
标题: 探索多模态大语言模型的隐式语义能力:实体集扩展的初步研究
标题: Exploring the Implicit Semantic Ability of Multimodal Large Language Models: A Pilot Study on Entity Set Expansion
摘要: 多模态大语言模型(MLLMs)的快速发展在现实应用的广泛任务中带来了显著的改进。 然而,LLMs在提取隐式语义信息方面仍然表现出一定的局限性。 在本文中,我们将MLLMs应用于多模态实体集扩展(MESE)任务,该任务旨在通过属于同一语义类的新实体扩展少量种子实体,并且每个实体都提供了多模态信息。 我们通过MESE任务探索MLLMs在实体级别粒度上理解隐式语义信息的能力,引入了一种列表排序方法LUSAR,该方法将局部得分映射到全局排名。 我们的LUSAR在MLLMs的MESE任务性能上表现出显著的提升,标志着生成式MLLM首次用于ESE任务,并扩展了列表排序的适用性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.