计算机科学 > 人工智能
[提交于 2025年7月22日
]
标题: 基于可信计算环境的蒸馏大语言模型在片上系统设计中的应用
标题: Distilled Large Language Model in Confidential Computing Environment for System-on-Chip Design
摘要: 大型语言模型(LLMs)在电路设计任务中的使用日益增加,并且通常经历了多轮训练。 训练后的模型及其相关训练数据被视为机密知识产权(IP),必须防止泄露。 保密计算通过可信执行环境(TEEs)提供了一种有前景的解决方案来保护数据和模型。 然而,现有的TEEs实现并未专门设计用于高效支持LLLMs的资源密集型特性。 在本工作中,我们首先在启用TEE的保密计算环境中对LLMs进行了全面评估,具体使用了英特尔信任域扩展(TDX)。 我们在三种环境中进行了实验:基于TEE的环境、仅CPU环境以及CPU-GPU混合实现,并从每秒令牌数的角度评估了它们的性能。 我们的第一个观察结果是,蒸馏模型,即DeepSeek,在性能上优于其他模型,因为它们的参数更少,使其适用于资源受限的设备。 此外,在量化模型中,如4位量化(Q4)和8位量化(Q8),我们观察到与FP16模型相比性能提高了多达3倍。 我们的研究结果表明,对于参数较少的模型,如DeepSeek-r1-1.5B,在安全环境中执行计算时,TDX实现优于CPU版本。 我们进一步使用专为SoC设计任务设计的测试平台验证了这些结果。 这些验证证明了在资源受限系统上高效部署轻量级LLMs用于半导体CAD应用的潜力。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.