Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:1911.08725

帮助 | 高级搜索

统计学 > 计算

arXiv:1911.08725 (stat)
[提交于 2019年11月20日 ]

标题: 利用全方差定律评估和调整近似推理算法

标题: Assessment and adjustment of approximate inference algorithms using the law of total variance

Authors:Xuejun Yu, David J. Nott, Minh-Ngoc Tran, Nadja Klein
摘要: 评估贝叶斯抽样或近似推理方法有效性的常用方法是利用从先验中抽取参数的模拟数据复制。在连续性假设下,对应后验分布中模拟参数值的函数的分位数是均匀分布的。当后验密度被数值近似时检查均匀性可以提供算法有效性的诊断。此外,为实现均匀性所做的调整可以提高近似推理方法的质量。这种方法的一个弱点是似乎难以扩展到感兴趣的标量函数之外。本文开发了一种基于分位数的检查和调整方法的替代方法,该方法本质上是多变量的。新方法基于条件期望的塔性质和总方差定律,用于关联先验和后验期望和协方差。为了进行调整,对近似推理进行了修改,以使正确的先验到后验关系成立。我们在三个示例中展示了该方法。第一个示例在一个无需似然的推理问题中使用了辅助模型。第二个示例考虑了深度神经网络广义线性混合模型中的变分贝叶斯近似修正。我们的最终应用考虑了一个深度神经网络代理,用于近似高斯过程回归预测推断。
摘要: A common method for assessing validity of Bayesian sampling or approximate inference methods makes use of simulated data replicates for parameters drawn from the prior. Under continuity assumptions, quantiles of functions of the simulated parameter values within corresponding posterior distributions are uniformly distributed. Checking for uniformity when a posterior density is approximated numerically provides a diagnostic for algorithm validity. Furthermore, adjustments to achieve uniformity can improve the quality of approximate inference methods. A weakness of this general approach is that it seems difficult to extend beyond scalar functions of interest. The present article develops an alternative to quantile-based checking and adjustment methods which is inherently multivariate. The new approach is based on use of the tower property of conditional expectation and the law of total variance for relating prior and posterior expectations and covariances. For adjustment, approximate inferences are modified so that the correct prior to posterior relationships hold. We illustrate the method in three examples. The first uses an auxiliary model in a likelihood-free inference problem. The second considers corrections for variational Bayes approximations in a deep neural network generalized linear mixed model. Our final application considers a deep neural network surrogate for approximating Gaussian process regression predictive inference.
主题: 计算 (stat.CO)
引用方式: arXiv:1911.08725 [stat.CO]
  (或者 arXiv:1911.08725v1 [stat.CO] 对于此版本)
  https://doi.org/10.48550/arXiv.1911.08725
通过 DataCite 发表的 arXiv DOI

提交历史

来自: David Nott [查看电子邮件]
[v1] 星期三, 2019 年 11 月 20 日 06:16:20 UTC (1,265 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.CO
< 上一篇   |   下一篇 >
新的 | 最近的 | 2019-11
切换浏览方式为:
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号