Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2505.22391

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2505.22391 (cs)
[提交于 2025年5月28日 ]

标题: 基于物理信息的扩散模型蒸馏用于偏微分方程约束生成

标题: Physics-Informed Distillation of Diffusion Models for PDE-Constrained Generation

Authors:Yi Zhang, Difan Zou
摘要: 以生成方式建模物理系统具有多个优势,包括能够处理部分观测值、生成多样化解决方案以及解决正向和反向问题。 最近,扩散模型在物理系统的建模中引起了越来越多的关注,特别是那些受偏微分方程(PDEs)支配的系统。 然而,扩散模型仅在中间步骤访问噪声数据$\boldsymbol{x}_t$,这使得直接在每个噪声级别上的干净样本$\boldsymbol{x}_0$上施加约束变得不可行。 作为变通方法,通常会将约束应用于干净样本$\mathbb{E}[\boldsymbol{x}_0|\boldsymbol{x}_t]$的期望值,该期望值是使用学习到的得分网络估计的。 然而,在期望值上施加PDE约束并不能严格表示在真实干净数据上的约束,这被称为詹森差距。 这种差距造成了权衡:施加PDE约束可能会以降低生成建模准确性为代价。 为了解决这个问题,我们提出了一种简单但有效的后蒸馏方法,其中PDE约束不会直接注入扩散过程,而是在后蒸馏阶段强制执行。 我们将这种方法称为物理信息引导的扩散模型后蒸馏(PIDDM)。 这种蒸馏不仅促进了单步生成,提高了PDE满足度,还支持正向和反向问题求解以及从随机部分观测值中重建。 广泛的实验表明,在各种PDE基准测试中,PIDDM显著提高了PDE满足度,超过了几个近期和竞争性的基线,例如PIDM、DiffusionPDE和ECI采样,同时计算开销更小。 我们的方法可以为更高效和有效的方法提供指导,以将物理约束纳入扩散模型中。
摘要: Modeling physical systems in a generative manner offers several advantages, including the ability to handle partial observations, generate diverse solutions, and address both forward and inverse problems. Recently, diffusion models have gained increasing attention in the modeling of physical systems, particularly those governed by partial differential equations (PDEs). However, diffusion models only access noisy data $\boldsymbol{x}_t$ at intermediate steps, making it infeasible to directly enforce constraints on the clean sample $\boldsymbol{x}_0$ at each noisy level. As a workaround, constraints are typically applied to the expectation of clean samples $\mathbb{E}[\boldsymbol{x}_0|\boldsymbol{x}_t]$, which is estimated using the learned score network. However, imposing PDE constraints on the expectation does not strictly represent the one on the true clean data, known as Jensen's Gap. This gap creates a trade-off: enforcing PDE constraints may come at the cost of reduced accuracy in generative modeling. To address this, we propose a simple yet effective post-hoc distillation approach, where PDE constraints are not injected directly into the diffusion process, but instead enforced during a post-hoc distillation stage. We term our method as Physics-Informed Distillation of Diffusion Models (PIDDM). This distillation not only facilitates single-step generation with improved PDE satisfaction, but also support both forward and inverse problem solving and reconstruction from randomly partial observation. Extensive experiments across various PDE benchmarks demonstrate that PIDDM significantly improves PDE satisfaction over several recent and competitive baselines, such as PIDM, DiffusionPDE, and ECI-sampling, with less computation overhead. Our approach can shed light on more efficient and effective strategies for incorporating physical constraints into diffusion models.
评论: 23页,5幅图,4张表格
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 计算工程、金融与科学 (cs.CE); 数值分析 (math.NA)
引用方式: arXiv:2505.22391 [cs.LG]
  (或者 arXiv:2505.22391v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2505.22391
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Difan Zou [查看电子邮件]
[v1] 星期三, 2025 年 5 月 28 日 14:17:58 UTC (4,268 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-05
切换浏览方式为:
cs
cs.AI
cs.CE
cs.LG
cs.NA
math.NA

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号