Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.05200

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2506.05200 (cs)
[提交于 2025年6月5日 ]

标题: Transformer 遇到提示学习:一种通用近似理论

标题: Transformers Meet In-Context Learning: A Universal Approximation Theory

Authors:Gen Li, Yuchen Jiao, Yu Huang, Yuting Wei, Yuxin Chen
摘要: 现代大型语言模型具备即时学习的能力,即在推理时仅使用提示中的少量输入-输出示例即可执行新任务,而无需微调或参数更新。 我们发展了一种通用近似理论,以更好地理解变换器如何实现即时学习。 对于任何函数类(每个代表一个不同的任务),我们展示了如何构建一个变换器,该变换器在没有任何进一步权重更新的情况下,仅通过几个即时上下文示例即可进行可靠的预测。 与最近的许多文献将变换器视为算法近似器的做法不同——即构造变换器来模拟优化算法的迭代过程作为近似学习问题解的一种方式——我们的工作采取了根本不同的方法,基于通用函数近似。 这种方法提供的近似保证不受所近似优化算法有效性的影响,因此远远超出了凸问题和线性函数类。 我们的构建揭示了变换器如何能够同时学习通用表示并动态适应即时上下文示例。
摘要: Modern large language models are capable of in-context learning, the ability to perform new tasks at inference time using only a handful of input-output examples in the prompt, without any fine-tuning or parameter updates. We develop a universal approximation theory to better understand how transformers enable in-context learning. For any class of functions (each representing a distinct task), we demonstrate how to construct a transformer that, without any further weight updates, can perform reliable prediction given only a few in-context examples. In contrast to much of the recent literature that frames transformers as algorithm approximators -- i.e., constructing transformers to emulate the iterations of optimization algorithms as a means to approximate solutions of learning problems -- our work adopts a fundamentally different approach rooted in universal function approximation. This alternative approach offers approximation guarantees that are not constrained by the effectiveness of the optimization algorithms being approximated, thereby extending far beyond convex problems and linear function classes. Our construction sheds light on how transformers can simultaneously learn general-purpose representations and adapt dynamically to in-context examples.
主题: 机器学习 (cs.LG) ; 统计理论 (math.ST); 机器学习 (stat.ML)
引用方式: arXiv:2506.05200 [cs.LG]
  (或者 arXiv:2506.05200v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.05200
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Yuchen Jiao [查看电子邮件]
[v1] 星期四, 2025 年 6 月 5 日 16:12:51 UTC (98 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
math
math.ST
stat
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号