Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2003.00704v2

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2003.00704v2 (cs)
[提交于 2020年3月2日 (v1) ,最后修订 2020年3月5日 (此版本, v2)]

标题: 随机可微概率程序

标题: Stochastically Differentiable Probabilistic Programs

Authors:David Tolpin, Yuan Zhou, Hongseok Yang
摘要: 具有混合支持(包含连续和离散潜在随机变量)的概率程序在许多概率编程系统(PPSs)中很常见。 然而,离散随机变量的存在禁止了许多基于梯度的基本推理引擎,这使得在这些模型上的推理过程特别具有挑战性。 现有的PPSs要么要求用户手动对离散变量进行边缘化,要么需要通过分别对离散和连续变量运行推理来执行组合推理。 前者在大多数情况下不可行,而后者则有一些根本性的缺点。 我们提出了一种新颖的方法,使用随机梯度马尔可夫链蒙特卡洛算法族,在此类程序中高效且稳健地进行推理。 我们在几种重要的具有混合支持的概率程序案例中将我们的基于随机梯度的推理算法与传统基线进行了比较,并证明它优于现有的组合推理基线,并且在较少的编程工作量和较低的计算成本下,效果几乎与对程序的边缘化版本进行推理一样好。
摘要: Probabilistic programs with mixed support (both continuous and discrete latent random variables) commonly appear in many probabilistic programming systems (PPSs). However, the existence of the discrete random variables prohibits many basic gradient-based inference engines, which makes the inference procedure on such models particularly challenging. Existing PPSs either require the user to manually marginalize out the discrete variables or to perform a composing inference by running inference separately on discrete and continuous variables. The former is infeasible in most cases whereas the latter has some fundamental shortcomings. We present a novel approach to run inference efficiently and robustly in such programs using stochastic gradient Markov Chain Monte Carlo family of algorithms. We compare our stochastic gradient-based inference algorithm against conventional baselines in several important cases of probabilistic programs with mixed support, and demonstrate that it outperforms existing composing inference baselines and works almost as well as inference in marginalized versions of the programs, but with less programming effort and at a lower computation cost.
主题: 机器学习 (cs.LG) ; 机器学习 (stat.ML)
引用方式: arXiv:2003.00704 [cs.LG]
  (或者 arXiv:2003.00704v2 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2003.00704
通过 DataCite 发表的 arXiv DOI

提交历史

来自: David Tolpin [查看电子邮件]
[v1] 星期一, 2020 年 3 月 2 日 08:04:41 UTC (37 KB)
[v2] 星期四, 2020 年 3 月 5 日 14:06:30 UTC (37 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2020-03
切换浏览方式为:
cs
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号