Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.06185v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2506.06185v1 (cs)
[提交于 2025年6月6日 ]

标题: 扩散模型中的对抗噪声

标题: Antithetic Noise in Diffusion Models

Authors:Jing Jia, Sifan Liu, Bowen Song, Wei Yuan, Liyue Shen, Guanyang Wang
摘要: 我们系统地研究了扩散模型中的对抗性初始噪声。在针对不同数据集训练的无条件模型、文本条件潜扩散模型以及扩散后验采样器中,我们发现将每个初始噪声与其否定配对始终会产生强负相关的样本。为了解释这一现象,我们将实验与理论分析相结合,提出了一个关于学习得分函数近似仿射反对称(具有常数偏移的奇对称)的猜想,并提供了支持该猜想的证据。利用这种负相关性,我们实现了两种应用:(1)在不影响质量的情况下增强像Stable Diffusion这类模型的图像多样性;(2)当估计下游统计量时,提高不确定性量化精度(例如,置信区间可缩小高达90%)。在此基础上,我们将两点配对扩展到随机化准蒙特卡洛估计器中,进一步提高了估计准确性。我们的框架无需额外训练,适用于各种模型且不会增加运行时开销。
摘要: We initiate a systematic study of antithetic initial noise in diffusion models. Across unconditional models trained on diverse datasets, text-conditioned latent-diffusion models, and diffusion-posterior samplers, we find that pairing each initial noise with its negation consistently yields strongly negatively correlated samples. To explain this phenomenon, we combine experiments and theoretical analysis, leading to a symmetry conjecture that the learned score function is approximately affine antisymmetric (odd symmetry up to a constant shift), and provide evidence supporting it. Leveraging this negative correlation, we enable two applications: (1) enhancing image diversity in models like Stable Diffusion without quality loss, and (2) sharpening uncertainty quantification (e.g., up to 90% narrower confidence intervals) when estimating downstream statistics. Building on these gains, we extend the two-point pairing to a randomized quasi-Monte Carlo estimator, which further improves estimation accuracy. Our framework is training-free, model-agnostic, and adds no runtime overhead.
评论: 43页,20幅图,9张表格
主题: 机器学习 (cs.LG) ; 数值分析 (math.NA); 计算 (stat.CO); 机器学习 (stat.ML)
引用方式: arXiv:2506.06185 [cs.LG]
  (或者 arXiv:2506.06185v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.06185
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Guanyang Wang [查看电子邮件]
[v1] 星期五, 2025 年 6 月 6 日 15:46:26 UTC (32,863 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.NA
math
math.NA
stat
stat.CO
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号