Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2507.03756

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2507.03756 (stat)
[提交于 2025年7月4日 ]

标题: 扩散模型中的隐式正则化:一种算法依赖的泛化分析

标题: Implicit Regularisation in Diffusion Models: An Algorithm-Dependent Generalisation Analysis

Authors:Tyler Farghly, Patrick Rebeschini, George Deligiannidis, Arnaud Doucet
摘要: 去噪扩散模型的成功引发了关于其泛化行为的重要问题,尤其是在高维设置中。值得注意的是,当训练和采样完美进行时,这些模型会记忆训练数据——这意味着某种形式的正则化对于泛化是必不可少的。现有的理论分析主要依赖于算法无关的技术,如统一收敛,大量利用模型结构来获得泛化界限。在本工作中,我们则利用促进扩散模型泛化的算法方面,为这种设置开发了一个算法相关的泛化理论。借鉴算法稳定性的框架,我们引入了分数稳定性这一概念,它量化了分数匹配算法对数据集扰动的敏感性。我们根据分数稳定性推导出泛化界限,并将我们的框架应用于几个基本的学习设置,识别正则化来源。特别是,我们考虑了带有提前停止的去噪分数匹配(去噪正则化)、采样器范围内的粗粒度离散化(采样器正则化)以及使用SGD优化(优化正则化)。通过将我们的分析建立在算法属性而非模型结构上,我们识别出了一些扩散模型特有的隐式正则化来源,这些在文献中迄今一直被忽视。
摘要: The success of denoising diffusion models raises important questions regarding their generalisation behaviour, particularly in high-dimensional settings. Notably, it has been shown that when training and sampling are performed perfectly, these models memorise training data -- implying that some form of regularisation is essential for generalisation. Existing theoretical analyses primarily rely on algorithm-independent techniques such as uniform convergence, heavily utilising model structure to obtain generalisation bounds. In this work, we instead leverage the algorithmic aspects that promote generalisation in diffusion models, developing a general theory of algorithm-dependent generalisation for this setting. Borrowing from the framework of algorithmic stability, we introduce the notion of score stability, which quantifies the sensitivity of score-matching algorithms to dataset perturbations. We derive generalisation bounds in terms of score stability, and apply our framework to several fundamental learning settings, identifying sources of regularisation. In particular, we consider denoising score matching with early stopping (denoising regularisation), sampler-wide coarse discretisation (sampler regularisation) and optimising with SGD (optimisation regularisation). By grounding our analysis in algorithmic properties rather than model structure, we identify multiple sources of implicit regularisation unique to diffusion models that have so far been overlooked in the literature.
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG); 统计理论 (math.ST)
引用方式: arXiv:2507.03756 [stat.ML]
  (或者 arXiv:2507.03756v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.03756
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Tyler Farghly [查看电子邮件]
[v1] 星期五, 2025 年 7 月 4 日 18:07:06 UTC (313 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
math
math.ST
stat
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号