统计学 > 机器学习
[提交于 2025年8月14日
]
标题: 一种用于差分隐私$k$-PCA 的迭代算法及自适应噪声
标题: An Iterative Algorithm for Differentially Private $k$-PCA with Adaptive Noise
摘要: 给定 $n$个独立同分布的随机矩阵 $A_i \in \mathbb{R}^{d \times d}$,它们具有共同的期望 $\Sigma$,差分隐私随机主成分分析的目标是找到一个维度为 $k$的子空间,该子空间捕捉 $\Sigma$的最大方差方向,同时保持每个个体 $A_i$的差分隐私(DP)。 现有的方法要么(i)要求样本量$n$与维度$d$超线性增长,即使在对$A_i$做高斯假设的情况下也是如此,要么(ii)在差分隐私下引入过多噪声,即使在$A_i$内部的固有随机性较小时也是如此。 Liu 等人 (2022a) 解决了针对子高斯数据的这些问题,但仅限于使用他们的算法 DP-PCA 来估计顶级特征向量 ($k=1$) 。 我们提出了第一个能够估计任意$k \leq d$的顶部$k$特征向量的算法,同时克服了上述两个限制。 对于$k=1$,我们的算法达到了 DP-PCA 的效用保证,在$n = \tilde{\!O}(d)$时也能实现接近最优的统计误差。我们进一步提供了通用$k > 1$的下界,该下界与我们的上界相差一个因子$k$,并且实验上展示了我们的算法相比可比基线的优势。
当前浏览上下文:
stat.ML
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.