统计学 > 机器学习
[提交于 2025年5月30日
]
标题: 线性扩散模型的推广动态
标题: Generalization Dynamics of Linear Diffusion Models
摘要: 在有限数据集上训练的扩散模型,该数据集包含来自目标分布的 $N$ 样本,表现出从记忆到泛化的转变,在这一过程中,模型从再现训练样本转变为生成反映底层数据分布的新样本。 理解这一转变对于表征生成模型的样本效率和可靠性至关重要,但目前我们对该转变的理论理解尚不完整。 在这里,我们使用线性去噪器研究了一个简单模型中的记忆到泛化转变,这使得可以明确计算测试误差、采样分布以及样本与目标分布之间的 Kullback-Leibler 散度。 利用这些指标,我们预测这一转变大约发生在 $N \asymp d$ (输入维度)时。 当 $N$ 小于输入维度 $d$ 时,即只有部分相关变化方向存在于训练数据中,我们展示了正则化和提前停止如何帮助防止过拟合。 对于 $N > d$,我们发现线性扩散模型的采样分布以 $d/N$ 的线性方式接近其最优值(由 Kullback-Leibler 散度衡量),且与数据分布的具体情况无关。 我们的工作阐明了样本复杂度如何控制基于扩散生成模型的简单模型中的泛化,并提供了对线性去噪器训练动态的见解。
当前浏览上下文:
math.ST
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.