Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2504.21252

帮助 | 高级搜索

计算机科学 > 计算与语言

arXiv:2504.21252 (cs)
[提交于 2025年4月30日 ]

标题: 检索前先讨论:面向医疗问答的代理引导式对话以提升RAG效果

标题: Talk Before You Retrieve: Agent-Led Discussions for Better RAG in Medical QA

Authors:Xuanzhao Dong, Wenhui Zhu, Hao Wang, Xiwen Chen, Peijie Qiu, Rui Yin, Yi Su, Yalin Wang
摘要: 医学问答(QA)是一项推理密集型任务,由于幻觉现象和过时的领域知识,对大型语言模型(LLMs)来说仍然具有挑战性。 检索增强生成(RAG)通过利用外部知识提供了一个有前景的微调解决方案。 然而,现有的医学RAG系统存在两个关键局限性:(1)缺乏对信息检索过程中类人推理行为的建模,以及(2)依赖次优的医学语料库,这通常会导致检索到无关或噪声片段。 为了解决这些挑战,我们提出了 讨论-RAG,这是一个即插即用的模块,旨在通过基于协作代理的推理来增强医学QA RAG系统。 我们的方法引入了摘要代理,该代理协调一组医学专家以模拟多轮头脑风暴,从而提高检索内容的相关性。 此外,决策代理会在最终整合之前评估检索到的片段。 在四个基准医学QA数据集上的实验结果显示,讨论-RAG始终优于MedRAG,在BioASQ上答案准确性提高了高达16.67%,在PubMedQA上提高了12.20%。 代码可在以下地址获取:https://github.com/LLM-VLM-GSL/Discuss-RAG。
摘要: Medical question answering (QA) is a reasoning-intensive task that remains challenging for large language models (LLMs) due to hallucinations and outdated domain knowledge. Retrieval-Augmented Generation (RAG) provides a promising post-training solution by leveraging external knowledge. However, existing medical RAG systems suffer from two key limitations: (1) a lack of modeling for human-like reasoning behaviors during information retrieval, and (2) reliance on suboptimal medical corpora, which often results in the retrieval of irrelevant or noisy snippets. To overcome these challenges, we propose Discuss-RAG, a plug-and-play module designed to enhance the medical QA RAG system through collaborative agent-based reasoning. Our method introduces a summarizer agent that orchestrates a team of medical experts to emulate multi-turn brainstorming, thereby improving the relevance of retrieved content. Additionally, a decision-making agent evaluates the retrieved snippets before their final integration. Experimental results on four benchmark medical QA datasets show that Discuss-RAG consistently outperforms MedRAG, especially significantly improving answer accuracy by up to 16.67% on BioASQ and 12.20% on PubMedQA. The code is available at: https://github.com/LLM-VLM-GSL/Discuss-RAG.
主题: 计算与语言 (cs.CL)
引用方式: arXiv:2504.21252 [cs.CL]
  (或者 arXiv:2504.21252v1 [cs.CL] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.21252
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Xuanzhao Dong [查看电子邮件]
[v1] 星期三, 2025 年 4 月 30 日 01:37:44 UTC (608 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CL
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号