计算机科学 > 计算与语言
[提交于 2025年10月27日
]
标题: 标记增强生成:帮助语言模型在长上下文中找到复杂知识
标题: Tagging-Augmented Generation: Assisting Language Models in Finding Intricate Knowledge In Long Contexts
摘要: 最近对现代旗舰大型语言模型(LLMs)的有效上下文长度的研究揭示了即使是最强大和令人印象深刻的模型在处理长而复杂的上下文时,在有效的问题回答(QA)和推理方面存在重大限制。 虽然像检索增强生成(RAG)和基于块的重新排序等方法试图缓解这个问题,但它们对分块、嵌入和检索策略及模型敏感,并且进一步依赖于大量的预处理、知识获取和索引步骤。 在本文中,我们提出 标签增强生成(TAG),一种轻量级的数据增强策略,在不破坏和改变检索文档的完整性和组成的情况下,提升了LLM在长上下文场景中的性能。 我们通过增强两个具有挑战性和直接相关的问答基准——NoLima和NovelQA——来验证我们的假设,并表明对上下文进行标记或甚至仅在QA提示中添加标签定义都会带来相对于基线的一致性能提升——对于32K标记的上下文最高可达17%,对于需要跨广泛文本知识的多跳查询的复杂推理问答任务则提高2.9%。 更多细节请访问 https://sites.google.com/view/tag-emnlp.
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.