数学 > 统计理论
[提交于 2025年6月12日
(v1)
,最后修订 2025年7月1日 (此版本, v2)]
标题: 重新审视$\ell_p$球上的均值估计:MLE 是否最优?
标题: Revisiting mean estimation over $\ell_p$ balls: Is the MLE optimal?
摘要: 我们重新研究了在具有$\ell_p$约束的高斯序列模型中的均值估计问题,其中$p \in [0, \infty]$。 我们展示了最大似然估计量(MLE)行为的两种现象,这些现象取决于噪声水平、(拟)范数约束的半径、维度以及范数指数$p$。 首先,如果$p$位于$0$和$1 + \Theta(\tfrac{1}{\log d})$之间(包括边界),或者大于等于$2$,则 MLE 对于所有噪声水平和所有约束半径都是最小最大速率最优的。 另一方面,对于其余的范数指标——即当$p$介于$1 + \Theta(\tfrac{1}{\log d})$和$2$之间时——这里表现出更为显著的行为:尽管其在观测值中是非线性的,但对于几乎所有需要非线性估计才能达到最小最大最优估计的噪声水平和约束半径,最大似然估计是极小极大率次优的。 我们的结果表明,当给定$n$个独立同分布的高斯样本时,最大似然估计在样本量上可能以多项式因子的差距表现次优。 我们的下界是构造性的:每当最大似然估计率次优时,我们都能提供明确的实例,其中最大似然估计可证明会带来次优的风险。 最后,在非凸情况下——即当$p < 1$时——我们开发了精确的局部高斯宽度界限,这可能具有独立的兴趣。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.