数学 > 统计理论
[提交于 2019年5月10日
]
标题: 贝叶斯MAP估计中的超参数估计:参数化与一致性
标题: Hyperparameter Estimation in Bayesian MAP Estimation: Parameterizations and Consistency
摘要: 贝叶斯反问题公式具有三个主要优点:它提供了一个清晰的建模框架;提供了不确定性量化的方法;并且允许对超参数进行合理的学习。 后验分布可以通过采样方法进行探索,但对于许多问题来说,这样做在计算上是不可行的。 在这种情况下,通常会寻求最大后验(MAP)估计量。 尽管这些估计量计算相对便宜,并且具有吸引人的变分公式,但一个关键缺点是它们在参数化变化下缺乏不变性。 当使用层次先验来学习超参数时,这是一个特别重要的问题。 在本文中,我们研究了在采用条件高斯层次先验分布时,参数化选择对MAP估计量的影响。 具体而言,我们考虑了中心参数化,即直接求解未知状态的自然参数化,以及非中心参数化,其中与一个白化高斯分布一起处理未知状态变量,并且在考虑维度鲁棒的MCMC算法时出现;只有在非参数设置中,非中心参数化下的MAP估计才是定义良好的。 然而,我们证明基于非中心参数化的MAP估计作为超参数的估计量并不一致;相反,我们证明随着维度趋于无穷大,有限维中心MAP估计的极限是一致的。 我们还考虑了经验贝叶斯超参数估计,证明了这些估计的一致性,并表明它们在噪声方面比中心MAP估计更稳健。 贯穿全文的一个基本概念是,超参数只能恢复到测度等价的程度,这是在Ornstein-Uhlenbeck过程背景下已知的现象。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.