Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2502.01013

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2502.01013 (cs)
[提交于 2025年2月3日 ]

标题: 加密大模型推理:等变加密范式

标题: Encrypted Large Model Inference: The Equivariant Encryption Paradigm

Authors:James Buban, Hongyang Zhang, Claudio Angione, Harry Yang, Ahmad Farhan, Seyfal Sultanov, Michael Du, Xuran Ma, Zihao Wang, Yue Zhao, Arria Owlia, Fielding Johnston, Patrick Colangelo
摘要: 大规模深度学习模型,如现代语言模型和扩散架构,已彻底改变了从自然语言处理到计算机视觉的应用。 然而,在分布式或去中心化环境中部署它们会引发重大的隐私问题,因为在推理过程中可能会暴露敏感数据。 传统的技术如安全多方计算、同态加密和差分隐私提供了部分解决方案,但通常会带来显著的计算开销、延迟惩罚或与非线性网络操作的有限兼容性。 在本工作中,我们引入了等变加密(EE),这是一种新范式,旨在实现对加密数据的安全“盲”推理,且性能开销接近于零。 与完全同态方法不同,EE选择性地混淆神经网络层中的关键内部表示,同时保留线性和指定的一组非线性操作的精确功能。 这种有针对性的加密确保了原始输入、中间激活和输出即使在不受信任的基础设施上处理时也保持机密性。 我们详细阐述了EE的理论基础,将其性能和集成复杂度与传统隐私保护技术进行了比较,并展示了其在各种架构中的适用性,从卷积网络到大型语言模型。 此外,我们的工作提供了一个全面的威胁分析,概述了潜在的攻击向量和基准策略,并在去中心化环境中将EE与标准推理流程进行了基准测试。 结果证实,EE保持了高保真度和吞吐量,有效地弥合了强大的数据保密性与现代大规模模型推理严格的效率要求之间的差距。
摘要: Large scale deep learning model, such as modern language models and diffusion architectures, have revolutionized applications ranging from natural language processing to computer vision. However, their deployment in distributed or decentralized environments raises significant privacy concerns, as sensitive data may be exposed during inference. Traditional techniques like secure multi-party computation, homomorphic encryption, and differential privacy offer partial remedies but often incur substantial computational overhead, latency penalties, or limited compatibility with non-linear network operations. In this work, we introduce Equivariant Encryption (EE), a novel paradigm designed to enable secure, "blind" inference on encrypted data with near zero performance overhead. Unlike fully homomorphic approaches that encrypt the entire computational graph, EE selectively obfuscates critical internal representations within neural network layers while preserving the exact functionality of both linear and a prescribed set of non-linear operations. This targeted encryption ensures that raw inputs, intermediate activations, and outputs remain confidential, even when processed on untrusted infrastructure. We detail the theoretical foundations of EE, compare its performance and integration complexity against conventional privacy preserving techniques, and demonstrate its applicability across a range of architectures, from convolutional networks to large language models. Furthermore, our work provides a comprehensive threat analysis, outlining potential attack vectors and baseline strategies, and benchmarks EE against standard inference pipelines in decentralized settings. The results confirm that EE maintains high fidelity and throughput, effectively bridging the gap between robust data confidentiality and the stringent efficiency requirements of modern, large scale model inference.
主题: 密码学与安全 (cs.CR) ; 人工智能 (cs.AI)
引用方式: arXiv:2502.01013 [cs.CR]
  (或者 arXiv:2502.01013v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2502.01013
通过 DataCite 发表的 arXiv DOI

提交历史

来自: James Buban [查看电子邮件]
[v1] 星期一, 2025 年 2 月 3 日 03:05:20 UTC (2,403 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-02
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号