Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.22956v1

帮助 | 高级搜索

计算机科学 > 计算与语言

arXiv:2510.22956v1 (cs)
[提交于 2025年10月27日 ]

标题: 标记增强生成:帮助语言模型在长上下文中找到复杂知识

标题: Tagging-Augmented Generation: Assisting Language Models in Finding Intricate Knowledge In Long Contexts

Authors:Anwesan Pal, Karen Hovsepian, Tinghao Guo, Mengnan Zhao, Somendra Tripathi, Nikos Kanakaris, George Mihaila, Sumit Nigam
摘要: 最近对现代旗舰大型语言模型(LLMs)的有效上下文长度的研究揭示了即使是最强大和令人印象深刻的模型在处理长而复杂的上下文时,在有效的问题回答(QA)和推理方面存在重大限制。 虽然像检索增强生成(RAG)和基于块的重新排序等方法试图缓解这个问题,但它们对分块、嵌入和检索策略及模型敏感,并且进一步依赖于大量的预处理、知识获取和索引步骤。 在本文中,我们提出 标签增强生成(TAG),一种轻量级的数据增强策略,在不破坏和改变检索文档的完整性和组成的情况下,提升了LLM在长上下文场景中的性能。 我们通过增强两个具有挑战性和直接相关的问答基准——NoLima和NovelQA——来验证我们的假设,并表明对上下文进行标记或甚至仅在QA提示中添加标签定义都会带来相对于基线的一致性能提升——对于32K标记的上下文最高可达17%,对于需要跨广泛文本知识的多跳查询的复杂推理问答任务则提高2.9%。 更多细节请访问 https://sites.google.com/view/tag-emnlp.
摘要: Recent investigations into effective context lengths of modern flagship large language models (LLMs) have revealed major limitations in effective question answering (QA) and reasoning over long and complex contexts for even the largest and most impressive cadre of models. While approaches like retrieval-augmented generation (RAG) and chunk-based re-ranking attempt to mitigate this issue, they are sensitive to chunking, embedding and retrieval strategies and models, and furthermore, rely on extensive pre-processing, knowledge acquisition and indexing steps. In this paper, we propose Tagging-Augmented Generation (TAG), a lightweight data augmentation strategy that boosts LLM performance in long-context scenarios, without degrading and altering the integrity and composition of retrieved documents. We validate our hypothesis by augmenting two challenging and directly relevant question-answering benchmarks -- NoLima and NovelQA -- and show that tagging the context or even just adding tag definitions into QA prompts leads to consistent performance gains over the baseline -- up to 17% for 32K token contexts, and 2.9% in complex reasoning question-answering for multi-hop queries requiring knowledge across a wide span of text. Additional details are available at https://sites.google.com/view/tag-emnlp.
评论: 论文被EMNLP 2025接收
主题: 计算与语言 (cs.CL) ; 信息检索 (cs.IR)
引用方式: arXiv:2510.22956 [cs.CL]
  (或者 arXiv:2510.22956v1 [cs.CL] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.22956
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Anwesan Pal [查看电子邮件]
[v1] 星期一, 2025 年 10 月 27 日 03:23:25 UTC (620 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.CL
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.IR

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号