统计学 > 其他统计
[提交于 2025年5月28日
(v1)
,最后修订 2025年5月29日 (此版本, v2)]
标题: 自适应尾指数估计:最小假设与非渐近保证
标题: Adaptive tail index estimation: minimal assumptions and non-asymptotic guarantees
摘要: 极值理论中一个众所周知的难题是如何选择阈值数量$k\ll n$,其中$n$是总样本大小,用于推断尾部分布的数量。自适应方法现有的理论保证通常需要二阶假设或难以验证的 von Mises 假设,并且常常伴随着难以校准的调整参数。本文重新审视了对于 Hill 估计量自适应选择$k$的问题。我们的目标并不是一个“最优”的$k$,而是一个“足够好”的,即我们追求非渐近保证,虽然可能次优但明确且需要最少条件。我们提出了一种透明的自适应规则,不需要预先校准常数,受到高维统计中的“自适应验证”启发。我们方法的一个关键特征是考虑了一个大小为$ \ll n $的$k$网格,这与实践中常见的做法一致,但在理论分析中尚未被探索。我们的规则仅涉及方差类型项的显式表达;特别是,它不需要控制或估计偏差项。我们的理论分析适用于所有重尾分布,特别是所有正则变化生存函数。 此外,当 von Mises 条件成立时,我们的方法在网格大小为阶数 $\log n$ 时实现了“接近”极小极大最优性,速率为 $\sqrt{\log \log n}~ n^{-|\rho|/(1+2|\rho|)}$,与现有工作的 $ (\log \log (n)/n)^{|\rho|/(1+2|\rho|)} $ 速率相比具有优势。 我们的模拟表明,我们的方法对于行为不佳的分布表现尤为出色。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.