计算机科学 > 机器学习
[提交于 2025年5月30日
]
标题: 带有隐藏状态的差分隐私零阶优化中的隐私放大
标题: Privacy Amplification in Differentially Private Zeroth-Order Optimization with Hidden States
摘要: 零阶优化作为一种在领域特定数据上微调大型语言模型的有前景的方法,在差分隐私(DP)和内存限制下尤其如此。 尽管一阶方法从隐私的角度已经得到了广泛的研究,但零阶方法的隐私分析和算法设计仍然显著缺乏探索。 一个关键的开放性问题是隐藏状态的DP分析:虽然一阶方法已知具有收敛的隐私界值,但对于零阶方法是否可以建立类似的保证仍不清楚。 在这项工作中,我们通过证明零阶优化的收敛DP界给出了肯定的答案。 我们的分析将著名的迭代隐私放大框架推广到了零阶优化中平滑损失函数的情况下。 此外,它还产生了更好的DP零阶算法设计,这些设计之前在文献中是未知的。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.