计算机科学 > 计算与语言
[提交于 2025年6月26日
]
标题: 利用LLM辅助查询理解的实时检索增强生成
标题: Leveraging LLM-Assisted Query Understanding for Live Retrieval-Augmented Generation
摘要: 现实世界中的实时检索增强生成(RAG)系统在处理用户查询时面临重大挑战,这些查询通常存在噪声、模糊且包含多个意图。 虽然RAG通过外部知识增强了大型语言模型(LLMs),但当前系统通常难以处理此类复杂输入,因为它们通常是在更干净的数据上进行训练或评估的。 本文介绍了Omni-RAG,一种新颖的框架,旨在提高RAG系统在实时、开放领域环境中的鲁棒性和有效性。 Omni-RAG采用 LLM辅助的查询理解来通过三个关键模块预处理用户输入:(1)深度查询理解和分解,利用定制提示的LLMs对查询进行去噪(例如,纠正拼写错误)并将多意图查询分解为结构化子查询;(2)意图感知的知识检索,从语料库(即使用OpenSearch的FineWeb)中对每个子查询进行检索并聚合结果;以及(3)重新排序和生成,其中重新排序器(即BGE)在最终响应由LLM(即Falcon-10B)通过思维链提示生成之前优化文档选择。 Omni-RAG旨在通过稳健地处理复杂和噪声查询,弥合当前RAG能力与实际应用需求之间的差距,如SIGIR 2025 LiveRAG挑战所强调的需求。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.