计算机科学 > 密码学与安全
[提交于 2025年1月3日
(v1)
,最后修订 2025年1月7日 (此版本, v2)]
标题: 基于全同态加密的微调大语言模型的实用安全推理算法
标题: Practical Secure Inference Algorithm for Fine-tuned Large Language Model Based on Fully Homomorphic Encryption
摘要: 大型语言模型(LLMs)目前处于机器学习领域的前沿,显示出广泛的应用前景,但同时也暴露了隐私泄露的一些风险。 我们将全同态加密(FHE)和可证明安全理论与参数高效微调(PEFT)相结合,提出了一种针对LLMs的高效安全推理方案。 更具体地说,我们关注依赖于开源基础模型并使用LoRA通过私有数据集进行微调的预训练LLMs。 这是垂直领域模型如LawGPT和BenTsao的常见路线图。 我们使用了两种关键技术。 首先,我们将整个模型分为公共部分和私人部分。 公共部分的权重是公开可访问的(例如,开源的基础模型),而私人部分需要被保护(例如,LoRA矩阵)。 这样可以大大减少在私有数据上计算带来的开销。 其次,我们提出了一种通用方法,将一个线性层转换为另一个线性层,该方法能够抵御模型提取攻击并保留其原始功能,称为私有线性层(PLL)。 然后我们将这种方法应用于LoRA矩阵,以确保服务器保护其私有权重而不限制用户的输入。 我们还表明,对PLL执行模型提取攻击的难度可以降低到著名的困难问题学习带误差(LWE)。 将此方法与FHE结合,我们可以同时保护用户输入。 在本文中,我们使用开源模型ChatGLM2-6B作为基础模型,并通过LoRA进行微调。 实验结果表明,我们方案的推理效率达到1.61秒/标记,显示该方案具有良好的实用性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.