统计学 > 机器学习
[提交于 2025年7月4日
]
标题: 扩散模型中的隐式正则化:一种算法依赖的泛化分析
标题: Implicit Regularisation in Diffusion Models: An Algorithm-Dependent Generalisation Analysis
摘要: 去噪扩散模型的成功引发了关于其泛化行为的重要问题,尤其是在高维设置中。值得注意的是,当训练和采样完美进行时,这些模型会记忆训练数据——这意味着某种形式的正则化对于泛化是必不可少的。现有的理论分析主要依赖于算法无关的技术,如统一收敛,大量利用模型结构来获得泛化界限。在本工作中,我们则利用促进扩散模型泛化的算法方面,为这种设置开发了一个算法相关的泛化理论。借鉴算法稳定性的框架,我们引入了分数稳定性这一概念,它量化了分数匹配算法对数据集扰动的敏感性。我们根据分数稳定性推导出泛化界限,并将我们的框架应用于几个基本的学习设置,识别正则化来源。特别是,我们考虑了带有提前停止的去噪分数匹配(去噪正则化)、采样器范围内的粗粒度离散化(采样器正则化)以及使用SGD优化(优化正则化)。通过将我们的分析建立在算法属性而非模型结构上,我们识别出了一些扩散模型特有的隐式正则化来源,这些在文献中迄今一直被忽视。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.