计算机科学 > 机器学习
[提交于 2024年8月28日
(v1)
,最后修订 2024年11月4日 (此版本, v2)]
标题: 3-in-1:用于高效微调、高效批处理和可组合性的二维旋转适应
标题: 3-in-1: 2D Rotary Adaptation for Efficient Finetuning, Efficient Batching and Composability
摘要: 参数高效的微调(PEFT)方法能够有效地将大型语言模型(LLMs)适配到各种下游任务中,同时减少存储和GPU内存需求。尽管有这些优势,一些应用场景对PEFT提出了超越单纯参数效率的新挑战。一个显著的挑战是如何高效部署配备了多个任务或用户专用适配器的LLMs,特别是在同一批次内不同请求需要不同适配器的情况下。另一个挑战是LLMs的可解释性,这对于理解LLMs的工作原理至关重要。先前的研究引入了多种方法来应对不同的挑战。本文介绍了一种新颖的方法RoAd,它通过简单的二维旋转来适配LLMs,并解决了上述所有挑战:(1)RoAd具有极高的参数效率,在GLUE基准、八个常识推理任务以及四个算术推理任务上,使用$<0.1\%$个可训练参数实现了最优性能;(2)RoAd可以高效处理批量请求中需要不同适配器的情况,其开销相当于逐元素乘法而不是批量矩阵乘法;(3)RoAd通过集成到分布式互换干预框架内增强了LLMs的可解释性,并通过组成实验进行了验证。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.