Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2510.08409v1

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2510.08409v1 (stat)
[提交于 2025年10月9日 ]

标题: 潜在扩散模型中的最优停止

标题: Optimal Stopping in Latent Diffusion Models

Authors:Yu-Han Wu, Quentin Berthet, Gérard Biau, Claire Boyer, Romuald Elie, Pierre Marion
摘要: 我们识别并分析了潜在扩散模型(LDMs)中一个令人惊讶的现象,即扩散的最后步骤会降低样本质量。与传统观点不同,该观点认为早期停止是为了数值稳定性,但这一现象是LDMs中维度降低的固有特性。我们通过分析潜在维度和停止时间之间的相互作用,提供了一个有根据的解释。在具有线性自编码器的高斯框架下,我们描述了在什么条件下需要早期停止以最小化生成分布与目标分布之间的距离。更准确地说,我们表明低维表示受益于较早的终止,而高维潜在空间则需要较晚的停止时间。我们进一步证明,潜在维度与其他问题超参数如分数匹配参数的约束相互作用。在合成和真实数据集上的实验说明了这些特性,强调了早期停止可以提高生成质量。综上所述,我们的结果为理解潜在维度如何影响样本质量提供了理论基础,并突出了停止时间作为LDMs中的关键超参数。
摘要: We identify and analyze a surprising phenomenon of Latent Diffusion Models (LDMs) where the final steps of the diffusion can degrade sample quality. In contrast to conventional arguments that justify early stopping for numerical stability, this phenomenon is intrinsic to the dimensionality reduction in LDMs. We provide a principled explanation by analyzing the interaction between latent dimension and stopping time. Under a Gaussian framework with linear autoencoders, we characterize the conditions under which early stopping is needed to minimize the distance between generated and target distributions. More precisely, we show that lower-dimensional representations benefit from earlier termination, whereas higher-dimensional latent spaces require later stopping time. We further establish that the latent dimension interplays with other hyperparameters of the problem such as constraints in the parameters of score matching. Experiments on synthetic and real datasets illustrate these properties, underlining that early stopping can improve generative quality. Together, our results offer a theoretical foundation for understanding how the latent dimension influences the sample quality, and highlight stopping time as a key hyperparameter in LDMs.
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG)
引用方式: arXiv:2510.08409 [stat.ML]
  (或者 arXiv:2510.08409v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.08409
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yu-Han Wu [查看电子邮件]
[v1] 星期四, 2025 年 10 月 9 日 16:28:48 UTC (1,274 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号