Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2504.03002

帮助 | 高级搜索

计算机科学 > 密码学与安全

arXiv:2504.03002 (cs)
[提交于 2025年4月3日 ]

标题: 使用优化的同态加密提高联合学习的效率

标题: Improving Efficiency in Federated Learning with Optimized Homomorphic Encryption

Authors:Feiran Yang
摘要: 联邦学习是一种在机器学习中使用的方案,允许多个设备在不共享私人数据的情况下一起协作训练模型。 每个参与者将其私人数据保留在本地系统中,并训练一个本地模型,仅向中央服务器发送更新信息,中央服务器将这些更新信息合并以改进总体模型。 联邦学习中隐私的关键推动因素是同态加密(HE)。 同态加密允许直接对加密数据执行计算。 尽管同态加密提供了强大的隐私保障,但它计算密集度高,导致显著的延迟和可扩展性问题,特别是在像BERT这样大规模的模型中。 在我的研究中,我旨在解决这个效率低下的问题。 我的研究引入了一种新颖的算法来解决这些低效问题,同时保持强大的隐私保障。 我在算法中集成了多种数学技术,如选择性参数加密、敏感性图和差分隐私噪声,这已经提高了其效率。 我还进行了严格的数学证明,以验证方法的正确性和鲁棒性。 我通过用C++编码实现了该算法,在大规模模型的联邦学习环境中模拟了环境,并验证了我所提出算法的效率比最先进的方法提高了$3$倍。 这项研究对机器学习具有重要意义,因为它能够在平衡隐私的同时提高效率,使其成为一种实用的解决方案! 它将使联邦学习能够非常高效地使用,并部署到各种资源受限的环境中,因为这项研究为联邦学习的一个关键挑战——同态加密的低效问题提供了一个新颖的解决方案:我的新算法能够在保持强大隐私保障的同时增强联邦学习的可扩展性和资源效率。
摘要: Federated learning is a method used in machine learning to allow multiple devices to work together on a model without sharing their private data. Each participant keeps their private data on their system and trains a local model and only sends updates to a central server, which combines these updates to improve the overall model. A key enabler of privacy in FL is homomorphic encryption (HE). HE allows computations to be performed directly on encrypted data. While HE offers strong privacy guarantees, it is computationally intensive, leading to significant latency and scalability issues, particularly for large-scale models like BERT. In my research, I aimed to address this inefficiency problem. My research introduces a novel algorithm to address these inefficiencies while maintaining robust privacy guarantees. I integrated several mathematical techniques such as selective parameter encryption, sensitivity maps, and differential privacy noise within my algorithms, which has already improved its efficiency. I have also conducted rigorous mathematical proofs to validate the correctness and robustness of the approach. I implemented this algorithm by coding it in C++, simulating the environment of federated learning on large-scale models, and verified that the efficiency of my algorithm is $3$ times the efficiency of the state-of-the-art method. This research has significant implications for machine learning because its ability to improve efficiency while balancing privacy makes it a practical solution! It would enable federated learning to be used very efficiently and deployed in various resource-constrained environments, as this research provides a novel solution to one of the key challenges in federated learning: the inefficiency of homomorphic encryption, as my new algorithm is able to enhance the scalability and resource efficiency of FL while maintaining robust privacy guarantees.
评论: 18页,1幅图
主题: 密码学与安全 (cs.CR)
引用方式: arXiv:2504.03002 [cs.CR]
  (或者 arXiv:2504.03002v1 [cs.CR] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.03002
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Feiran Yang [查看电子邮件]
[v1] 星期四, 2025 年 4 月 3 日 19:50:07 UTC (99 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.CR
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号