计算机科学 > 计算与语言
[提交于 2025年4月30日
]
标题: 检索前先讨论:面向医疗问答的代理引导式对话以提升RAG效果
标题: Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA
摘要: 医学问答(QA)是一项推理密集型任务,由于幻觉现象和过时的领域知识,对大型语言模型(LLMs)来说仍然具有挑战性。 检索增强生成(RAG)通过利用外部知识提供了一个有前景的微调解决方案。 然而,现有的医学RAG系统存在两个关键局限性:(1)缺乏对信息检索过程中类人推理行为的建模,以及(2)依赖次优的医学语料库,这通常会导致检索到无关或噪声片段。 为了解决这些挑战,我们提出了 讨论-RAG,这是一个即插即用的模块,旨在通过基于协作代理的推理来增强医学QA RAG系统。 我们的方法引入了摘要代理,该代理协调一组医学专家以模拟多轮头脑风暴,从而提高检索内容的相关性。 此外,决策代理会在最终整合之前评估检索到的片段。 在四个基准医学QA数据集上的实验结果显示,讨论-RAG始终优于MedRAG,在BioASQ上答案准确性提高了高达16.67%,在PubMedQA上提高了12.20%。 代码可在以下地址获取:https://github.com/LLM-VLM-GSL/Discuss-RAG。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.