计算机科学 > 计算与语言
[提交于 2025年6月26日
]
标题: 梯度下降能模拟提示吗?
标题: Can Gradient Descent Simulate Prompting?
摘要: 将新信息纳入语言模型(LM)的两种主要方法是更改其提示或更改其参数,例如通过微调。 参数更新不会为模型更改产生长期存储成本。 然而,对于许多模型更新,提示要有效得多:提示模型可以从单个示例中稳健地进行泛化,并得出在标准微调下不会出现的逻辑推理。 模型能否被修改,使得微调能模拟提示? 本文描述了一种元训练LM的方法,使梯度更新能模拟对新信息进行条件处理的效果。 我们的方法使用基于梯度的元学习工具,但使用LM自身的提示预测作为目标,消除了对真实标签的需求。 随后的梯度下降训练恢复了某些(有时全部)提示模型的性能——在“反转诅咒”任务上表现出改进,并在单次梯度更新后回答关于文本段落的问题。 这些结果表明,通过适当的初始化,梯度下降可以出人意料地具有表现力。 我们的结果为长上下文建模提供了新的途径,并对基于梯度的学习的泛化能力提供了见解。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.