Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.10402

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2510.10402 (cs)
[提交于 2025年10月12日 ]

标题: 通过推理时树搜索引导的扩散模型进行可控制图生成

标题: Controllable Graph Generation with Diffusion Models via Inference-Time Tree Search Guidance

Authors:Jiachi Zhao, Zehong Wang, Yamei Liao, Chuxu Zhang, Yanfang Ye
摘要: 图生成是图学习中的基础问题,在Web规模系统、知识图谱以及药物和材料发现等科学领域有广泛的应用。 最近的方法利用扩散模型进行逐步生成,但无条件扩散对所需属性控制有限,通常会导致质量不稳定,并且在引入新目标时存在困难。 推理时引导方法通过调整采样过程而不重新训练来缓解这些问题,但它们本质上是局部的、启发式的,并且可控性有限。 为了克服这些限制,我们提出了TreeDiff,这是一种蒙特卡洛树搜索(MCTS)引导的双空间扩散框架,用于可控制的图生成。 TreeDiff是一种即插即用的推理时方法,在保持计算可行性的前提下扩展了搜索空间。 具体来说,TreeDiff引入了三个关键设计,使其具有实用性和可扩展性:(1) 宏步骤扩展策略,将多个去噪更新分组为一个转换,减少树的深度并实现长视界探索;(2) 双空间去噪机制,将高效的潜在空间去噪与图空间中的轻量离散修正相结合,确保可扩展性和结构保真度;以及(3) 双空间验证器,从部分去噪的图中预测长期奖励,实现早期价值估计并消除对完整回放的需求。 在2D和3D分子生成基准测试中,无论是在无条件还是条件设置下,广泛的实验都表明TreeDiff实现了最先进的性能。 值得注意的是,TreeDiff在推理时具有良好的扩展性:随着计算资源的增加,它持续改进,而现有的推理时方法在资源有限的情况下会早期达到瓶颈。
摘要: Graph generation is a fundamental problem in graph learning with broad applications across Web-scale systems, knowledge graphs, and scientific domains such as drug and material discovery. Recent approaches leverage diffusion models for step-by-step generation, yet unconditional diffusion offers little control over desired properties, often leading to unstable quality and difficulty in incorporating new objectives. Inference-time guidance methods mitigate these issues by adjusting the sampling process without retraining, but they remain inherently local, heuristic, and limited in controllability. To overcome these limitations, we propose TreeDiff, a Monte Carlo Tree Search (MCTS) guided dual-space diffusion framework for controllable graph generation. TreeDiff is a plug-and-play inference-time method that expands the search space while keeping computation tractable. Specifically, TreeDiff introduces three key designs to make it practical and scalable: (1) a macro-step expansion strategy that groups multiple denoising updates into a single transition, reducing tree depth and enabling long-horizon exploration; (2) a dual-space denoising mechanism that couples efficient latent-space denoising with lightweight discrete correction in graph space, ensuring both scalability and structural fidelity; and (3) a dual-space verifier that predicts long-term rewards from partially denoised graphs, enabling early value estimation and removing the need for full rollouts. Extensive experiments on 2D and 3D molecular generation benchmarks, under both unconditional and conditional settings, demonstrate that TreeDiff achieves state-of-the-art performance. Notably, TreeDiff exhibits favorable inference-time scaling: it continues to improve with additional computation, while existing inference-time methods plateau early under limited resources.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 计算工程、金融与科学 (cs.CE)
引用方式: arXiv:2510.10402 [cs.LG]
  (或者 arXiv:2510.10402v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.10402
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Zehong Wang [查看电子邮件]
[v1] 星期日, 2025 年 10 月 12 日 01:40:33 UTC (407 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs.AI
cs.CE
cs.LG

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号