Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cond-mat > arXiv:2501.09064

帮助 | 高级搜索

凝聚态物理 > 统计力学

arXiv:2501.09064 (cond-mat)
[提交于 2025年1月15日 ]

标题: 带有逆重正化群流的生成扩散模型

标题: Generative diffusion model with inverse renormalization group flows

Authors:Kanta Masuki, Yuto Ashida
摘要: 扩散模型是一类生成模型,通过去除由白噪声破坏的样本中的噪声来生成数据。 尽管扩散模型在计算机视觉、音频合成和点云生成中取得了成功,但到目前为止,它们忽略了数据中的固有多尺度结构,并且由于需要许多迭代步骤而导致生成过程缓慢。 在物理学中,重整化群提供了一个基本框架,用于连接不同尺度并给出精确的粗粒化模型。 在这里,我们引入了一种基于重整化群的扩散模型,利用数据分布的多尺度特性以实现高质量的数据生成。 秉承重整化群过程的精神,我们定义了一个流方程,该方程逐步从细尺度细节到粗粒化结构中消除数据信息。 通过逆转重整化群流,我们的模型能够以从粗到细的方式生成高质量样本。 我们通过在蛋白质结构预测和图像生成中的应用验证了该模型的通用性。 我们的模型在标准评估指标上始终优于传统扩散模型,样本质量和/或采样速度提高了数量级。 所提出的方法减轻了生成扩散模型中对数据相关超参数调优的需求,显示出基于重整化群概念系统提高样本效率的前景。
摘要: Diffusion models represent a class of generative models that produce data by denoising a sample corrupted by white noise. Despite the success of diffusion models in computer vision, audio synthesis, and point cloud generation, so far they overlook inherent multiscale structures in data and have a slow generation process due to many iteration steps. In physics, the renormalization group offers a fundamental framework for linking different scales and giving an accurate coarse-grained model. Here we introduce a renormalization group-based diffusion model that leverages multiscale nature of data distributions for realizing a high-quality data generation. In the spirit of renormalization group procedures, we define a flow equation that progressively erases data information from fine-scale details to coarse-grained structures. Through reversing the renormalization group flows, our model is able to generate high-quality samples in a coarse-to-fine manner. We validate the versatility of the model through applications to protein structure prediction and image generation. Our model consistently outperforms conventional diffusion models across standard evaluation metrics, enhancing sample quality and/or accelerating sampling speed by an order of magnitude. The proposed method alleviates the need for data-dependent tuning of hyperparameters in the generative diffusion models, showing promise for systematically increasing sample efficiency based on the concept of the renormalization group.
评论: 9+21页,4+11图。代码和训练好的模型可在 https://github.com/kantamasuki/RGDM 获取
主题: 统计力学 (cond-mat.stat-mech) ; 无序系统与神经网络 (cond-mat.dis-nn); 机器学习 (cs.LG); 应用物理 (physics.app-ph); 生物物理 (physics.bio-ph)
引用方式: arXiv:2501.09064 [cond-mat.stat-mech]
  (或者 arXiv:2501.09064v1 [cond-mat.stat-mech] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.09064
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Kanta Masuki [查看电子邮件]
[v1] 星期三, 2025 年 1 月 15 日 19:00:01 UTC (19,781 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cond-mat
cond-mat.dis-nn
cond-mat.stat-mech
cs
physics
physics.app-ph
physics.bio-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号