Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2508.01597v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2508.01597v1 (cs)
[提交于 2025年8月3日 ]

标题: 为什么启发式加权有效:去噪得分匹配的理论分析

标题: Why Heuristic Weighting Works: A Theoretical Analysis of Denoising Score Matching

Authors:Juyan Zhang, Rhys Newbury, Xinyang Zhang, Tin Tran, Dana Kulic, Michael Burke
摘要: 得分匹配使得能够估计数据分布的梯度,这是去噪扩散模型中的关键组成部分,用于从损坏的输入中恢复干净的数据。 在以前的工作中,使用了一种启发式的加权函数来处理去噪得分匹配损失,但没有正式的证明。 在这项工作中,我们证明了异方差性是去噪得分匹配目标的固有属性。 这一见解导致了广义的、任意阶的去噪得分匹配损失的最优加权函数的合理推导,而无需对噪声分布做出假设。 其中,一阶公式对于扩散模型尤其相关。 我们表明,广泛使用的启发式加权函数是期望最优加权迹的的一阶泰勒近似。 我们进一步提供了理论和实证比较,揭示了尽管启发式加权函数简单,但相对于参数梯度,它可以实现比最优加权更低的方差,这可以促进更稳定和高效的训练。
摘要: Score matching enables the estimation of the gradient of a data distribution, a key component in denoising diffusion models used to recover clean data from corrupted inputs. In prior work, a heuristic weighting function has been used for the denoising score matching loss without formal justification. In this work, we demonstrate that heteroskedasticity is an inherent property of the denoising score matching objective. This insight leads to a principled derivation of optimal weighting functions for generalized, arbitrary-order denoising score matching losses, without requiring assumptions about the noise distribution. Among these, the first-order formulation is especially relevant to diffusion models. We show that the widely used heuristical weighting function arises as a first-order Taylor approximation to the trace of the expected optimal weighting. We further provide theoretical and empirical comparisons, revealing that the heuristical weighting, despite its simplicity, can achieve lower variance than the optimal weighting with respect to parameter gradients, which can facilitate more stable and efficient training.
主题: 机器学习 (cs.LG) ; 应用 (stat.AP); 机器学习 (stat.ML)
引用方式: arXiv:2508.01597 [cs.LG]
  (或者 arXiv:2508.01597v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2508.01597
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Juyan Zhang [查看电子邮件]
[v1] 星期日, 2025 年 8 月 3 日 05:35:20 UTC (656 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-08
切换浏览方式为:
cs
stat
stat.AP
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号