Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2412.08064

帮助 | 高级搜索

数学 > 统计理论

arXiv:2412.08064 (math)
[提交于 2024年12月11日 ]

标题: 一般分布之间最优传输映射估计的统计收敛速率

标题: Statistical Convergence Rates of Optimal Transport Map Estimation between General Distributions

Authors:Yizhe Ding, Runze Li, Lingzhou Xue
摘要: 本文研究了最优传输(OT)映射估计器的收敛速率,这是一个在统计学、机器学习和各种科学领域日益受到关注的主题。 尽管最近取得了进展,现有的结果依赖于在实践中非常限制性的正则性假设,这些假设比布伦纳定理中的假设要严格得多,包括概率支撑的紧性和凸性以及OT映射的双利普希茨性质。 我们旨在拓宽OT映射估计的范围,并填补理论与实践之间的这一差距。 在对布伦纳势强凸性假设的基础上,我们首先建立了原始插值估计器的非渐近收敛速率,而无需对概率测度施加限制性假设。 此外,我们引入了一种筛子插值估计器,并在其不依赖于布伦纳势的强凸性假设的情况下建立了其收敛速率,从而能够处理诸如正态分布或t分布的秩函数等广泛应用的情况。 我们还建立了新的泊松型不等式,在概率密度的局部有界性和支撑的温和拓扑条件下的充分条件下得到了证明,这些新不等式使我们能够为多恩斯克函数类实现更快的收敛速率。 此外,我们开发了可扩展的算法,利用神经网络高效求解OT映射估计,并通过数值实验展示了其有效性和鲁棒性。
摘要: This paper studies the convergence rates of optimal transport (OT) map estimators, a topic of growing interest in statistics, machine learning, and various scientific fields. Despite recent advancements, existing results rely on regularity assumptions that are very restrictive in practice and much stricter than those in Brenier's Theorem, including the compactness and convexity of the probability support and the bi-Lipschitz property of the OT maps. We aim to broaden the scope of OT map estimation and fill this gap between theory and practice. Given the strong convexity assumption on Brenier's potential, we first establish the non-asymptotic convergence rates for the original plug-in estimator without requiring restrictive assumptions on probability measures. Additionally, we introduce a sieve plug-in estimator and establish its convergence rates without the strong convexity assumption on Brenier's potential, enabling the widely used cases such as the rank functions of normal or t-distributions. We also establish new Poincar\'e-type inequalities, which are proved given sufficient conditions on the local boundedness of the probability density and mild topological conditions of the support, and these new inequalities enable us to achieve faster convergence rates for the Donsker function class. Moreover, we develop scalable algorithms to efficiently solve the OT map estimation using neural networks and present numerical experiments to demonstrate the effectiveness and robustness.
评论: 44页,8图
主题: 统计理论 (math.ST) ; 概率 (math.PR); 方法论 (stat.ME); 机器学习 (stat.ML)
MSC 类: 62G20, 62G20, 26D10
引用方式: arXiv:2412.08064 [math.ST]
  (或者 arXiv:2412.08064v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2412.08064
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Lingzhou Xue [查看电子邮件]
[v1] 星期三, 2024 年 12 月 11 日 03:18:17 UTC (2,255 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-12
切换浏览方式为:
math
math.PR
stat
stat.ME
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号