Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2506.03044

帮助 | 高级搜索

数学 > 统计理论

arXiv:2506.03044 (math)
[提交于 2025年6月3日 ]

标题: 关于加速优化在鲁棒和隐私估计中的好处

标题: On the Benefits of Accelerated Optimization in Robust and Private Estimation

Authors:Laurentiu Andrei Marchis, Po-Ling Loh
摘要: 我们研究了加速梯度方法的优势,特别是基于Frank-Wolfe方法和投影梯度下降法,用于隐私保护和重尾鲁棒性。 我们的方法如下:对于Frank-Wolfe方法,我们的技术基于定制的学习率以及约束集上$\ell_2$-范数梯度的均匀下界。 为了加速投影梯度下降,我们使用基于Nesterov动量的流行变体,并在$\mathbb{R}^p$上优化目标函数。 这些加速减少了迭代复杂度,转化为经验风险和总体风险最小化的更强统计保证。 我们的分析涵盖了三种设置:非随机数据、随机无模型数据以及参数模型(线性回归和广义线性模型)。 从方法论上讲,我们通过噪声梯度来实现隐私保护和鲁棒性。 我们通过高斯机制和高级组合确保差分隐私,并使用几何均值估计器实现重尾鲁棒性,这也改进了协变量维度上的依赖关系。 最后,我们将我们的速率与现有界限进行比较,并确定我们的方法达到最优收敛的场景。
摘要: We study the advantages of accelerated gradient methods, specifically based on the Frank-Wolfe method and projected gradient descent, for privacy and heavy-tailed robustness. Our approaches are as follows: For the Frank-Wolfe method, our technique is based on a tailored learning rate and a uniform lower bound on the gradient of the $\ell_2$-norm over the constraint set. For accelerating projected gradient descent, we use the popular variant based on Nesterov's momentum, and we optimize our objective over $\mathbb{R}^p$. These accelerations reduce iteration complexity, translating into stronger statistical guarantees for empirical and population risk minimization. Our analysis covers three settings: non-random data, random model-free data, and parametric models (linear regression and generalized linear models). Methodologically, we approach both privacy and robustness based on noisy gradients. We ensure differential privacy via the Gaussian mechanism and advanced composition, and we achieve heavy-tailed robustness using a geometric median-of-means estimator, which also sharpens the dependency on the dimension of the covariates. Finally, we compare our rates to existing bounds and identify scenarios where our methods attain optimal convergence.
评论: 91页,8幅图
主题: 统计理论 (math.ST) ; 机器学习 (cs.LG); 机器学习 (stat.ML)
MSC 类: 62F10, 62J05, 62J07, 62F35, 68P27
引用方式: arXiv:2506.03044 [math.ST]
  (或者 arXiv:2506.03044v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.03044
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Laurentiu Marchis [查看电子邮件]
[v1] 星期二, 2025 年 6 月 3 日 16:26:30 UTC (443 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.LG
math
stat
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号