Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.09607

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2507.09607 (cs)
[提交于 2025年7月13日 (v1) ,最后修订 2025年7月15日 (此版本, v2)]

标题: 基于辅助者协助的恶意安全不诚实多数MPC的高效隐私推理

标题: Efficient Private Inference Based on Helper-Assisted Malicious Security Dishonest Majority MPC

Authors:Kaiwen Wang, Yuehan Dong, Junchao Fan, Xiaolin Chang
摘要: 基于安全多方计算(MPC)的私有推理解决了机器学习即服务(MLaaS)中的数据隐私风险。 然而,现有的基于MPC的私有推理框架专注于半诚实或诚实多数模型,其威胁模型过于理想化,而恶意安全不诚实多数模型面临效率低下的挑战。 为了平衡安全性和效率,我们提出了一种使用辅助者协助恶意安全不诚实多数模型(HA-MSDM)的私有推理框架。 该框架包括我们设计的五种MPC协议和一种协同优化策略。 这些协议实现了高效的固定轮次乘法、指数运算和多项式操作,为私有推理提供了基础原语。 协同优化策略平衡了推理效率和准确性。 为了提高效率,我们对非线性层采用多项式近似。 为了提高准确性,我们在固定区间内构建六阶多项式近似以实现高精度激活函数拟合,并引入参数调整的批量归一化层以限制激活逃逸问题。 在LeNet和AlexNet上的基准结果表明,与最先进的框架(IEEE S&P'25)相比,我们的框架在局域网中实现了2.4-25.7倍的速度提升,在广域网中实现了1.3-9.5倍的加速,仅具有0.04%-1.08%的相对误差,同时保持高准确性。
摘要: Private inference based on Secure Multi-Party Computation (MPC) addresses data privacy risks in Machine Learning as a Service (MLaaS). However, existing MPC-based private inference frameworks focuses on semi-honest or honest majority models, whose threat models are overly idealistic, while malicious security dishonest majority models face the challenge of low efficiency. To balance security and efficiency, we propose a private inference framework using Helper-Assisted Malicious Security Dishonest Majority Model (HA-MSDM). This framework includes our designed five MPC protocols and a co-optimized strategy. These protocols achieve efficient fixed-round multiplication, exponentiation, and polynomial operations, providing foundational primitives for private inference. The co-optimized strategy balances inference efficiency and accuracy. To enhance efficiency, we employ polynomial approximation for nonlinear layers. For improved accuracy, we construct sixth-order polynomial approximation within a fixed interval to achieve high-precision activation function fitting and introduce parameter-adjusted batch normalization layers to constrain the activation escape problem. Benchmark results on LeNet and AlexNet show our framework achieves 2.4-25.7x speedup in LAN and 1.3-9.5x acceleration in WAN compared to state-of-the-art frameworks (IEEE S&P'25), maintaining high accuracy with only 0.04%-1.08% relative errors.
评论: 稿件因正在进行重大修订以及方法和结果的显著变化而被撤回。未来可能会提交一个大幅改进的版本。
主题: 密码学与安全 (cs.CR)
引用方式: arXiv:2507.09607 [cs.CR]
  (或者 arXiv:2507.09607v2 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.09607
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Xiaolin Chang [查看电子邮件]
[v1] 星期日, 2025 年 7 月 13 日 12:24:02 UTC (1,112 KB)
[v2] 星期二, 2025 年 7 月 15 日 11:31:05 UTC (1 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号