Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.16226

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2507.16226 (cs)
[提交于 2025年7月22日 ]

标题: 基于可信计算环境的蒸馏大语言模型在片上系统设计中的应用

标题: Distilled Large Language Model in Confidential Computing Environment for System-on-Chip Design

Authors:Dong Ben, Hui Feng, Qian Wang
摘要: 大型语言模型(LLMs)在电路设计任务中的使用日益增加,并且通常经历了多轮训练。 训练后的模型及其相关训练数据被视为机密知识产权(IP),必须防止泄露。 保密计算通过可信执行环境(TEEs)提供了一种有前景的解决方案来保护数据和模型。 然而,现有的TEEs实现并未专门设计用于高效支持LLLMs的资源密集型特性。 在本工作中,我们首先在启用TEE的保密计算环境中对LLMs进行了全面评估,具体使用了英特尔信任域扩展(TDX)。 我们在三种环境中进行了实验:基于TEE的环境、仅CPU环境以及CPU-GPU混合实现,并从每秒令牌数的角度评估了它们的性能。 我们的第一个观察结果是,蒸馏模型,即DeepSeek,在性能上优于其他模型,因为它们的参数更少,使其适用于资源受限的设备。 此外,在量化模型中,如4位量化(Q4)和8位量化(Q8),我们观察到与FP16模型相比性能提高了多达3倍。 我们的研究结果表明,对于参数较少的模型,如DeepSeek-r1-1.5B,在安全环境中执行计算时,TDX实现优于CPU版本。 我们进一步使用专为SoC设计任务设计的测试平台验证了这些结果。 这些验证证明了在资源受限系统上高效部署轻量级LLMs用于半导体CAD应用的潜力。
摘要: Large Language Models (LLMs) are increasingly used in circuit design tasks and have typically undergone multiple rounds of training. Both the trained models and their associated training data are considered confidential intellectual property (IP) and must be protected from exposure. Confidential Computing offers a promising solution to protect data and models through Trusted Execution Environments (TEEs). However, existing TEE implementations are not designed to support the resource-intensive nature of LLMs efficiently. In this work, we first present a comprehensive evaluation of the LLMs within a TEE-enabled confidential computing environment, specifically utilizing Intel Trust Domain Extensions (TDX). We constructed experiments on three environments: TEE-based, CPU-only, and CPU-GPU hybrid implementations, and evaluated their performance in terms of tokens per second. Our first observation is that distilled models, i.e., DeepSeek, surpass other models in performance due to their smaller parameters, making them suitable for resource-constrained devices. Also, in the quantized models such as 4-bit quantization (Q4) and 8-bit quantization (Q8), we observed a performance gain of up to 3x compared to FP16 models. Our findings indicate that for fewer parameter sets, such as DeepSeek-r1-1.5B, the TDX implementation outperforms the CPU version in executing computations within a secure environment. We further validate the results using a testbench designed for SoC design tasks. These validations demonstrate the potential of efficiently deploying lightweight LLMs on resource-constrained systems for semiconductor CAD applications.
评论: 7页,4图;
主题: 人工智能 (cs.AI) ; 密码学与安全 (cs.CR)
引用方式: arXiv:2507.16226 [cs.AI]
  (或者 arXiv:2507.16226v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.16226
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Hui Feng [查看电子邮件]
[v1] 星期二, 2025 年 7 月 22 日 04:41:27 UTC (237 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.CR

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号