计算机科学 > 机器学习
[提交于 2019年9月18日
(v1)
,最后修订 2019年9月24日 (此版本, v2)]
标题: Renyi差分隐私的非平滑正则化优化的ADMM方法
标题: Renyi Differentially Private ADMM for Non-Smooth Regularized Optimization
摘要: 本文研究了在Rényi微分隐私(RDP)下最小化由可微凸损失函数与非光滑正则项(如$L_1$范数或核范数)组成的复合目标函数的问题。 为了解决该问题,我们提出了两种随机交替方向乘子法(ADMM)算法:基于梯度扰动的ssADMM和基于输出扰动的mpADMM。 这两种算法都将原始问题分解为具有闭式解的子问题。 第一个算法ssADMM利用RDP的最新隐私放大结果来减少需要添加的噪声量。 第二个算法mpADMM数值计算了ADMM变量更新的敏感性,并在每个周期结束时发布更新后的参数向量。 我们在真实数据集和模拟数据集上将我们的算法性能与几种基准算法进行了比较。 实验结果表明,在高隐私设置(小$\epsilon$)下,ssADMM和mpADMM分别在分类和特征选择性能方面优于其他基准算法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.