Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2506.04878v1

帮助 | 高级搜索

数学 > 统计理论

arXiv:2506.04878v1 (math)
[提交于 2025年6月5日 ]

标题: kTULA:一种具有改进的超线性对数梯度KL界的Langevin抽样算法

标题: kTULA: A Langevin sampling algorithm with improved KL bounds under super-linear log-gradients

Authors:Iosif Lytras, Sotirios Sabanis, Ying Zhang
摘要: 受深度学习应用的启发,其中全局Lipschitz连续性条件通常不满足,我们研究了从具有超线性增长的对数梯度的分布中采样的问题。我们提出了一种基于改进型 Langevin 动力学的新算法,称为kTULA,以解决上述采样问题,并为其性能提供了理论保证。更具体地说,我们在 Kullback-Leibler (KL) 散度中建立了非渐近收敛界,其最佳收敛率等于 $2-\overline{\epsilon}$, $\overline{\epsilon}>0$,这显著改进了现有文献中的相关结果。这使我们能够在 Wasserstein-2 距离中获得改进的非渐近误差界,该界可以进一步用于推导出kTULA解决相关优化问题的非渐近保证。为了展示kTULA的适用性,我们将所提出的算法应用于从高维双井势分布中采样的问题以及涉及神经网络的优化问题。我们表明,我们的主要结果可以用于提供kTULA性能的理论保证。
摘要: Motivated by applications in deep learning, where the global Lipschitz continuity condition is often not satisfied, we examine the problem of sampling from distributions with super-linearly growing log-gradients. We propose a novel tamed Langevin dynamics-based algorithm, called kTULA, to solve the aforementioned sampling problem, and provide a theoretical guarantee for its performance. More precisely, we establish a non-asymptotic convergence bound in Kullback-Leibler (KL) divergence with the best-known rate of convergence equal to $2-\overline{\epsilon}$, $\overline{\epsilon}>0$, which significantly improves relevant results in existing literature. This enables us to obtain an improved non-asymptotic error bound in Wasserstein-2 distance, which can be used to further derive a non-asymptotic guarantee for kTULA to solve the associated optimization problems. To illustrate the applicability of kTULA, we apply the proposed algorithm to the problem of sampling from a high-dimensional double-well potential distribution and to an optimization problem involving a neural network. We show that our main results can be used to provide theoretical guarantees for the performance of kTULA.
主题: 统计理论 (math.ST) ; 机器学习 (cs.LG); 概率 (math.PR); 机器学习 (stat.ML)
引用方式: arXiv:2506.04878 [math.ST]
  (或者 arXiv:2506.04878v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.04878
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Ying Zhang [查看电子邮件]
[v1] 星期四, 2025 年 6 月 5 日 10:51:18 UTC (42 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.LG
math
math.PR
stat
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号