计算机科学 > 机器学习
[提交于 2025年7月2日
]
标题: 基于CPU的LoRA微调:一种面向大语言模型的高效元生成框架
标题: LoRA Fine-Tuning Without GPUs: A CPU-Efficient Meta-Generation Framework for LLMs
摘要: 低秩适配器(LoRAs)通过实现参数高效的更新,改变了大型语言模型(LLMs)的微调。然而,它们的广泛应用仍受到对基于GPU训练依赖的限制。在本工作中,我们提出了一种理论上有依据的LoRA微调方法,专门针对计算资源有限的用户,特别是那些仅限于标准笔记本电脑CPU的用户。我们的方法学习了一个元操作符,通过利用Mistral-7B-Instruct-v0.2模型的大量预训练适配器,将任何输入数据集(表示为概率分布)映射到一组LoRA权重。而不是进行新的基于梯度的更新,我们的流程直接在CPU上通过现有LoRAs的轻量级组合构建适配器。虽然生成的适配器不如基于GPU训练的适配器性能好,但它们在下游任务中始终优于基础Mistral模型,为传统基于GPU的微调提供了一种实用且易于访问的替代方案。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.