计算机科学 > 机器学习
[提交于 2025年9月2日
(v1)
,最后修订 2025年9月4日 (此版本, v2)]
标题: 面向PDE基础模型的推理:一种奖励模型驱动的推理时缩放算法
标题: Towards Reasoning for PDE Foundation Models: A Reward-Model-Driven Inference-Time-Scaling Algorithm
摘要: 偏微分方程(PDEs)是现代计算科学和工程的基础,且本质上计算成本高昂。 虽然基于PDE的基础模型在模拟这种复杂的时空现象方面表现出很大的潜力,但现有的模型仍然受到预训练数据集的限制,并且在自回归滚动性能方面存在困难,尤其是在分布外(OOD)情况下。 此外,它们对计算资源和训练数据有较大的需求,这阻碍了它们在许多关键应用中的使用。 受大型语言模型(LLMs)中“思考”策略的最新进展的启发,我们引入了第一个用于PDE的测试时计算(TTC)策略,该策略在推理过程中利用计算资源,以更少的训练样本和更小的模型实现更准确的预测。 我们通过两种类型的奖励模型来实现这一点,这些模型评估基于随机性的模型在时空一致性方面的预测。 我们在PDEGym基准的可压缩欧拉方程模拟上展示了这种方法,并表明与标准的非自适应自回归推理相比,TTC能够捕捉到改进的预测。 这个TTC框架标志着向更高级的推理算法或PDE建模迈出的基石性一步,包括构建基于强化学习的方法,可能会改变物理和工程中的计算流程。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.