计算机科学 > 机器学习
[提交于 2024年2月1日
]
标题: 在线分布学习与局部隐私约束
标题: Online Distribution Learning with Local Private Constraints
摘要: 我们研究在局部差分隐私下具有\emph{无界}标签集的在线条件分布估计问题。 令$\mathcal{F}$为具有无界标签集的分布值函数类。 我们旨在以在线方式估计一个\emph{未知}函数$f\in \mathcal{F}$,以便在时间$t$当提供上下文$\boldsymbol{x}_t$时,可以在仅知道真实标签的私有版本并从$f(\boldsymbol{x}_t)$抽样情况下,生成$f(\boldsymbol{x}_t)$的估计值。最终目标是最小化有限时间范围$T$的累积 KL 风险。 我们证明,在私化标签的$(\epsilon,0)$-局部差分隐私下,KL风险增长为$\tilde{\Theta}(\frac{1}{\epsilon}\sqrt{KT})$,直到多项式对数因子,其中$K=|\mathcal{F}|$。这与 Wu 等人(2023a) 对有界标签集展示的$\tilde{\Theta}(\sqrt{T\log K})$界形成鲜明对比。作为副产品,我们的结果恢复了 gopi 等人(2020) 为批处理设置建立的几乎紧致的假设选择问题上界。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.