计算机科学 > 计算与语言
[提交于 2024年12月31日
]
标题: MAIN-RAG:多智能体过滤检索增强生成
标题: MAIN-RAG: Multi-Agent Filtering Retrieval-Augmented Generation
摘要: 大型语言模型(LLMs)正在成为各种自然语言处理任务的重要工具,但常常会生成过时或错误的信息。检索增强生成(RAG)通过结合外部实时信息检索来使LLM的响应更加可靠,从而解决这个问题。然而,现有的RAG系统经常在检索文档的质量上遇到困难,因为不相关或嘈杂的文档会降低性能,增加计算开销,并损害响应的可靠性。为了解决这个问题,我们提出了多代理过滤检索增强生成(MAIN-RAG),这是一种无需训练的RAG框架,利用多个LLM代理协作过滤和评分检索到的文档。具体而言,MAIN-RAG引入了一种自适应过滤机制,根据评分分布动态调整相关性过滤阈值,有效减少噪声同时保持相关文档的高召回率。所提出的方法利用代理间的一致性来确保稳健的文档选择,而无需额外的训练数据或微调。在四个问答基准上的实验结果表明,MAIN-RAG始终优于传统的RAG方法,在回答准确性方面提高了2-11%,同时减少了不相关检索文档的数量。定量分析进一步表明,我们的方法在响应一致性和回答准确性方面优于基线方法,为基于训练的解决方案提供了一个有竞争力且实用的替代方案。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.