计算机科学 > 机器学习
[提交于 2025年7月14日
]
标题: 分裂发生:使用分裂学习和函数秘密共享对抗高级威胁
标题: Split Happens: Combating Advanced Threats with Split Learning and Function Secret Sharing
摘要: 分割学习(SL)——将模型分成两个不同部分,以帮助保护客户端数据,同时增强机器学习(ML)过程。 尽管有前景, SL已被证明容易受到各种攻击,从而引发了对其在数据隐私方面有效性的问题的担忧。 最近的研究通过使用一种名为函数秘密共享(FSS)的新范式,在服务器获得他们计算的函数的份额并操作一个用随机掩码隐藏的公共输入方面展示了有希望的结果。 然而,这些工作在应对SL存在的攻击数量增加方面存在不足。 在SplitHappens中,我们将FSS和SL的结合扩展到U型SL。 与其他工作类似,我们能够通过减少FSS的通信和计算成本来利用SL的优势。 然而,U型SL提供了比之前工作更高的安全保证,使客户端能够在不与服务器共享的情况下保持训练数据的标签机密性。 通过这种方式,我们能够推广之前工作的安全分析,并将其扩展到不同的攻击向量,例如现代模型逆向攻击以及标签推断攻击。 我们在不同数据集上的两种不同的卷积神经网络上测试了我们的方法。 这些实验表明,与简单地使用FSS相比,我们的方法在减少训练时间以及通信成本方面是有效的,同时保持了先前的准确性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.