计算机科学 > 密码学与安全
[提交于 2025年4月3日
]
标题: 使用优化的同态加密提高联合学习的效率
标题: Improving Efficiency in Federated Learning with Optimized Homomorphic Encryption
摘要: 联邦学习是一种在机器学习中使用的方案,允许多个设备在不共享私人数据的情况下一起协作训练模型。 每个参与者将其私人数据保留在本地系统中,并训练一个本地模型,仅向中央服务器发送更新信息,中央服务器将这些更新信息合并以改进总体模型。 联邦学习中隐私的关键推动因素是同态加密(HE)。 同态加密允许直接对加密数据执行计算。 尽管同态加密提供了强大的隐私保障,但它计算密集度高,导致显著的延迟和可扩展性问题,特别是在像BERT这样大规模的模型中。 在我的研究中,我旨在解决这个效率低下的问题。 我的研究引入了一种新颖的算法来解决这些低效问题,同时保持强大的隐私保障。 我在算法中集成了多种数学技术,如选择性参数加密、敏感性图和差分隐私噪声,这已经提高了其效率。 我还进行了严格的数学证明,以验证方法的正确性和鲁棒性。 我通过用C++编码实现了该算法,在大规模模型的联邦学习环境中模拟了环境,并验证了我所提出算法的效率比最先进的方法提高了$3$倍。 这项研究对机器学习具有重要意义,因为它能够在平衡隐私的同时提高效率,使其成为一种实用的解决方案! 它将使联邦学习能够非常高效地使用,并部署到各种资源受限的环境中,因为这项研究为联邦学习的一个关键挑战——同态加密的低效问题提供了一个新颖的解决方案:我的新算法能够在保持强大隐私保障的同时增强联邦学习的可扩展性和资源效率。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.