统计学 > 机器学习
[提交于 2025年8月22日
]
标题: 阻尼Langevin MCMC具有三阶收敛性
标题: Underdamped Langevin MCMC with third order convergence
摘要: 在本文中,我们提出了一种新的数值方法用于欠阻尼朗之万扩散(ULD),并在目标分布$d$维且$p(x)\propto e^{-f(x)}$是强对数凹且具有不同平滑程度的情况下,给出了其采样误差在 2-Wasserstein 距离下的非渐近分析。精确地说,在梯度和 Hessian 的假设下$f$是 Lipschitz 连续的,我们的算法分别在$\mathcal{O}(\sqrt{d}/\varepsilon)$和$\mathcal{O}(\sqrt{d}/\sqrt{\varepsilon})$步骤中达到 2-Wasserstein 误差$\varepsilon$。因此,在匹配假设下,我们的算法与其他流行的朗之万 MCMC 算法具有相似的复杂度。 然而,如果我们进一步假设$f$的三阶导数是 Lipschitz 连续的,那么我们的算法在$\mathcal{O}(\sqrt{d}/\varepsilon^{\frac{1}{3}})$步骤内达到$\varepsilon$的 2-Wasserstein 误差。据我们所知,这是首个具有三阶收敛性的 ULD 梯度仅方法。为了支持我们的理论,我们在一系列真实数据集上进行了贝叶斯逻辑回归,其中我们的算法与现有的欠阻尼 Langevin MCMC 算法和流行的 No U-Turn Sampler (NUTS) 相比表现出有竞争力的性能。
当前浏览上下文:
stat.ML
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.