Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.22023v1

帮助 | 高级搜索

计算机科学 > 信息检索

arXiv:2510.22023v1 (cs)
[提交于 2025年10月24日 ]

标题: 基于大语言模型相关性判断的高斯过程回归的多模态项目评分方法

标题: Multimodal Item Scoring for Natural Language Recommendation via Gaussian Process Regression with LLM Relevance Judgments

Authors:Yifan Liu, Qianfeng Wen, Jiazhou Liang, Mark Zhao, Justin Cui, Anton Korikov, Armin Torogh, Junyoung Kim, Scott Sanner
摘要: 自然语言推荐(NLRec)根据用户发出的自然语言请求与自然语言物品描述段落之间的相关性生成物品建议。 现有的NLRec方法通常使用密集检索(DR)通过用户请求嵌入和相关段落嵌入之间的内积聚合来计算物品相关性得分。 然而,DR将请求视为唯一的相关性标签,从而导致以查询嵌入为中心的单模态评分函数,这通常是查询相关性的弱代理。 为了更好地捕捉可能从复杂NLRec数据中出现的相关性评分函数的潜在多模态分布,我们提出了GPR-LLM,该方法使用高斯过程回归(GPR)结合大型语言模型(LLM)的相关性判断对候选段落子集进行处理。 在四个NLRec数据集和两个LLM骨干模型上的实验表明,具有径向基函数(RBF)核的GPR-LLM能够建模多模态相关性评分函数,其表现始终优于简单的单模态核(点积、余弦相似性),以及基线方法包括DR、交叉编码器和基于点的LLM相关性评分,提升幅度高达65%。 总体而言,GPR-LLM在最小的LLM标注预算内为NLRec提供了一种高效且有效的方法。
摘要: Natural Language Recommendation (NLRec) generates item suggestions based on the relevance between user-issued NL requests and NL item description passages. Existing NLRec approaches often use Dense Retrieval (DR) to compute item relevance scores from aggregation of inner products between user request embeddings and relevant passage embeddings. However, DR views the request as the sole relevance label, thus leading to a unimodal scoring function centered on the query embedding that is often a weak proxy for query relevance. To better capture the potential multimodal distribution of the relevance scoring function that may arise from complex NLRec data, we propose GPR-LLM that uses Gaussian Process Regression (GPR) with LLM relevance judgments for a subset of candidate passages. Experiments on four NLRec datasets and two LLM backbones demonstrate that GPR-LLM with an RBF kernel, capable of modeling multimodal relevance scoring functions, consistently outperforms simpler unimodal kernels (dot product, cosine similarity), as well as baseline methods including DR, cross-encoder, and pointwise LLM-based relevance scoring by up to 65%. Overall, GPR-LLM provides an efficient and effective approach to NLRec within a minimal LLM labeling budget.
评论: 16页,20图
主题: 信息检索 (cs.IR)
引用方式: arXiv:2510.22023 [cs.IR]
  (或者 arXiv:2510.22023v1 [cs.IR] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.22023
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Qianfeng Wen [查看电子邮件]
[v1] 星期五, 2025 年 10 月 24 日 21:03:20 UTC (5,722 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.IR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号