计算机科学 > 机器学习
[提交于 2025年6月26日
(v1)
,最后修订 2025年7月2日 (此版本, v2)]
标题: 常微分方程$_t$(常微分方程$_l$):在扩散和流模型中缩短时间和长度以实现更快的采样
标题: ODE$_t$(ODE$_l$): Shortcutting the Time and Length in Diffusion and Flow Models for Faster Sampling
摘要: 最近,连续归一化流(CNFs)和扩散模型(DMs)已被纳入统一的理论框架中进行研究。 尽管这些模型可以从噪声分布生成高质量的数据点,但采样需要多次迭代以解决具有高计算复杂度的常微分方程(ODE)。 大多数现有方法专注于减少采样过程中的时间步数以提高效率。 在本工作中,我们探索了一种补充方向,其中质量-复杂度权衡可以在时间步数和神经网络长度方面动态控制。 我们通过重新连接基于Transformer的架构中的块来求解关于其长度的内部离散化ODE来实现这一点。 然后,在流匹配训练过程中,我们采用时间和长度一致性的项,结果是采样可以使用任意数量的时间步和Transformer块。 与其他方法不同,我们的 ODE$_t$(ODE$_l$) 方法在时间维度上与求解器无关,并减少了延迟和内存使用。 与之前的最先进方法相比,CelebA-HQ和ImageNet上的图像生成实验显示,在最有效的采样模式下延迟减少了多达3$\times$,在高质量采样中FID分数提高了多达3.5分。 我们发布了代码和模型权重,并进行了完全可复现的实验。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.