计算机科学 > 计算与语言
[提交于 2024年12月27日
]
标题: 长上下文与RAG对于LLMs:评估与重新审视
标题: Long Context vs. RAG for LLMs: An Evaluation and Revisits
摘要: 扩展上下文窗口(即长上下文,LC)和使用检索器有选择地访问相关信息(即检索增强生成,RAG)是使大语言模型(LLMs)能够整合极长外部上下文的两种主要策略。本文重新审视了这一领域的最新研究,强调了它们的关键见解和差异。然后我们通过过滤掉无需外部上下文即可回答的问题,对方法进行了更全面的评估,识别出最有效的检索方法,并扩展了数据集。我们表明,在问答基准测试中,LC通常优于RAG,尤其是在基于维基百科的问题上。基于摘要的检索表现与LC相当,而基于块的检索则落后。然而,RAG在基于对话和一般性问题查询中具有优势。这些见解突显了RAG和LC策略之间的权衡,为未来优化具有外部知识源的LLMs提供了指导。我们还对此话题进行了深入讨论,强调了现有研究中被忽视的上下文相关性的重要性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.