Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2510.12639

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2510.12639 (stat)
[提交于 2025年10月14日 ]

标题: 连续时间Sinkhorn动力学中的收缩和熵产生

标题: Contraction and entropy production in continuous-time Sinkhorn dynamics

Authors:Anand Srinivasan, Jean-Jacques Slotine
摘要: 最近,有限正则化参数$\varepsilon$下Sinkhorn算法的消失步长极限被证明是在概率测度空间中的镜像下降。 我们给出了由镜像Hessian诱导的两个时间依赖度量中的$L^2$收缩准则,这些准则退化为某些条件期望算子的强制性。 然后,我们给出了Sinkhorn流的熵产生率的精确表达式,该表达式之前仅知是非正的。 检查此速率表明,扩散过程的标准半群分析系统地扩展到了Sinkhorn流。 我们证明了该流在目标边缘上诱导了一个可逆的马尔可夫动力学,作为Onsager梯度流。 我们定义了与其(非局部)无穷小生成器相关的狄利克雷形式,证明了其Poincaré不等式,并且当$\varepsilon > 0$时,证明了沿Sinkhorn流的谱间隙严格为正。 最后,我们证明了熵衰减是指数级的当且仅当满足对数Sobolev不等式(LSI)。 为了说明,我们给出了Sinkhorn LSI的两个直接实际用例:作为生成模型训练潜在空间的设计原则,以及作为离散时间算法的停止启发式。
摘要: Recently, the vanishing-step-size limit of the Sinkhorn algorithm at finite regularization parameter $\varepsilon$ was shown to be a mirror descent in the space of probability measures. We give $L^2$ contraction criteria in two time-dependent metrics induced by the mirror Hessian, which reduce to the coercivity of certain conditional expectation operators. We then give an exact identity for the entropy production rate of the Sinkhorn flow, which was previously known only to be nonpositive. Examining this rate shows that the standard semigroup analysis of diffusion processes extends systematically to the Sinkhorn flow. We show that the flow induces a reversible Markov dynamics on the target marginal as an Onsager gradient flow. We define the Dirichlet form associated to its (nonlocal) infinitesimal generator, prove a Poincar\'e inequality for it, and show that the spectral gap is strictly positive along the Sinkhorn flow whenever $\varepsilon > 0$. Lastly, we show that the entropy decay is exponential if and only if a logarithmic Sobolev inequality (LSI) holds. We give for illustration two immediate practical use-cases for the Sinkhorn LSI: as a design principle for the latent space in which generative models are trained, and as a stopping heuristic for discrete-time algorithms.
评论: 10页,不包括参考文献
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG); 概率 (math.PR)
引用方式: arXiv:2510.12639 [stat.ML]
  (或者 arXiv:2510.12639v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.12639
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Anand Srinivasan [查看电子邮件]
[v1] 星期二, 2025 年 10 月 14 日 15:32:15 UTC (17 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.LG
math
math.PR
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号