Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2509.02846

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2509.02846 (cs)
[提交于 2025年9月2日 (v1) ,最后修订 2025年9月4日 (此版本, v2)]

标题: 面向PDE基础模型的推理:一种奖励模型驱动的推理时缩放算法

标题: Towards Reasoning for PDE Foundation Models: A Reward-Model-Driven Inference-Time-Scaling Algorithm

Authors:Siddharth Mansingh, James Amarel, Ragib Arnab, Arvind Mohan, Kamaljeet Singh, Gerd J. Kunde, Nicolas Hengartner, Benjamin Migliori, Emily Casleton, Nathan A. Debardeleben, Ayan Biswas, Diane Oyen, Earl Lawrence
摘要: 偏微分方程(PDEs)是现代计算科学和工程的基础,且本质上计算成本高昂。 虽然基于PDE的基础模型在模拟这种复杂的时空现象方面表现出很大的潜力,但现有的模型仍然受到预训练数据集的限制,并且在自回归滚动性能方面存在困难,尤其是在分布外(OOD)情况下。 此外,它们对计算资源和训练数据有较大的需求,这阻碍了它们在许多关键应用中的使用。 受大型语言模型(LLMs)中“思考”策略的最新进展的启发,我们引入了第一个用于PDE的测试时计算(TTC)策略,该策略在推理过程中利用计算资源,以更少的训练样本和更小的模型实现更准确的预测。 我们通过两种类型的奖励模型来实现这一点,这些模型评估基于随机性的模型在时空一致性方面的预测。 我们在PDEGym基准的可压缩欧拉方程模拟上展示了这种方法,并表明与标准的非自适应自回归推理相比,TTC能够捕捉到改进的预测。 这个TTC框架标志着向更高级的推理算法或PDE建模迈出的基石性一步,包括构建基于强化学习的方法,可能会改变物理和工程中的计算流程。
摘要: Partial Differential Equations (PDEs) are the bedrock for modern computational sciences and engineering, and inherently computationally expensive. While PDE foundation models have shown much promise for simulating such complex spatio-temporal phenomena, existing models remain constrained by the pretraining datasets and struggle with auto-regressive rollout performance, especially in out-of-distribution (OOD) cases. Furthermore, they have significant compute and training data requirements which hamper their use in many critical applications. Inspired by recent advances in ``thinking" strategies used in large language models (LLMs), we introduce the first test-time computing (TTC) strategy for PDEs that utilizes computational resources during inference to achieve more accurate predictions with fewer training samples and smaller models. We accomplish this with two types of reward models that evaluate predictions of a stochastic based model for spatio-temporal consistency. We demonstrate this method on compressible Euler-equation simulations from the PDEGym benchmark and show that TTC captures improved predictions relative to standard non-adaptive auto-regressive inference. This TTC framework marks a foundational step towards more advanced reasoning algorithms or PDE modeling, inluding building reinforcement-learning-based approaches, potentially transforming computational workflows in physics and engineering.
主题: 机器学习 (cs.LG) ; 计算物理 (physics.comp-ph)
引用方式: arXiv:2509.02846 [cs.LG]
  (或者 arXiv:2509.02846v2 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2509.02846
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Siddharth Mansingh [查看电子邮件]
[v1] 星期二, 2025 年 9 月 2 日 21:31:32 UTC (11,965 KB)
[v2] 星期四, 2025 年 9 月 4 日 15:40:37 UTC (11,965 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-09
切换浏览方式为:
cs
physics
physics.comp-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号