Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.01370

帮助 | 高级搜索

计算机科学 > 计算机视觉与模式识别

arXiv:2510.01370 (cs)
[提交于 2025年10月1日 ]

标题: SPUS:一种轻量级且参数高效的偏微分方程基础模型

标题: SPUS: A Lightweight and Parameter-Efficient Foundation Model for PDEs

Authors:Abu Bucker Siddik, Diane Oyen, Alexander Most, Michal Kucer, Ayan Biswas
摘要: 我们引入了小型PDE U-Net求解器(SPUS),这是一种紧凑且高效的基座模型(FM),被设计为一种统一的神经算子,用于解决各种偏微分方程(PDEs)。 与现有最先进的PDE FM—主要基于大型复杂Transformer架构,具有高计算和参数开销—SPUS利用了一种轻量级的残差U-Net架构,该架构在该领域作为基座模型架构尚未得到充分探索。 为了在这个极简框架中实现有效的学习,我们采用了一种简单但强大的自回归预训练策略,该策略紧密复制数值求解器的行为以学习底层物理。 SPUS在多样化的流体动力学PDE集上进行预训练,并在6个具有挑战性的未见过的下游PDE上进行评估,这些PDE跨越了各种物理系统。 实验结果表明,SPUS使用基于残差U-Net的架构在这些下游任务上实现了最先进的一般化性能,同时需要显著更少的参数和最少的微调数据,突显了其作为解决多样化PDE系统的高度参数高效FM的潜力。
摘要: We introduce Small PDE U-Net Solver (SPUS), a compact and efficient foundation model (FM) designed as a unified neural operator for solving a wide range of partial differential equations (PDEs). Unlike existing state-of-the-art PDE FMs-primarily based on large complex transformer architectures with high computational and parameter overhead-SPUS leverages a lightweight residual U-Net-based architecture that has been largely underexplored as a foundation model architecture in this domain. To enable effective learning in this minimalist framework, we utilize a simple yet powerful auto-regressive pretraining strategy which closely replicates the behavior of numerical solvers to learn the underlying physics. SPUS is pretrained on a diverse set of fluid dynamics PDEs and evaluated across 6 challenging unseen downstream PDEs spanning various physical systems. Experimental results demonstrate that SPUS using residual U-Net based architecture achieves state-of-the-art generalization on these downstream tasks while requiring significantly fewer parameters and minimal fine-tuning data, highlighting its potential as a highly parameter-efficient FM for solving diverse PDE systems.
主题: 计算机视觉与模式识别 (cs.CV) ; 人工智能 (cs.AI); 机器学习 (cs.LG); 计算物理 (physics.comp-ph)
引用方式: arXiv:2510.01370 [cs.CV]
  (或者 arXiv:2510.01370v1 [cs.CV] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.01370
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Abu Bucker Siddik [查看电子邮件]
[v1] 星期三, 2025 年 10 月 1 日 18:54:59 UTC (5,262 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.CV
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.AI
cs.LG
physics
physics.comp-ph

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号