Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2507.12719v1

帮助 | 高级搜索

数学 > 数值分析

arXiv:2507.12719v1 (math)
[提交于 2025年7月17日 ]

标题: DPNO:神经算子的双路径架构

标题: DPNO: A Dual Path Architecture For Neural Operator

Authors:Yichen Wang, Wenlian Lu
摘要: 神经算子已成为求解偏微分方程(PDEs)和其他复杂科学计算任务的强大工具。 然而,单个算子块的性能通常受到限制,因此通常需要组合基本算子块以实现更好的性能。 传统组合方式是像前馈神经网络一样堆叠这些块,这在考虑参数效率权衡时可能并不经济。 在本文中,我们提出了一种新颖的双路径架构,显著增强了基本神经算子的能力。 基本算子块以并行的两条路径组织,类似于ResNet和DenseNet。 通过引入这种并行处理机制,与原始模型相比,我们的架构显示出更强大的特征提取和解决方案逼近能力。 我们通过在多种PDE问题上的广泛数值实验验证了我们方法的有效性,包括Burgers方程、Darcy流方程和2d Navier-Stokes方程。 实验结果表明,在某些标准测试用例上,我们的模型相比基本模型实现了超过30%的相对改进。 我们将这种结构应用于从不同范式中选择的两个标准神经算子(DeepONet和FNO),这表明所提出的架构具有出色的通用性,并为神经算子结构设计提供了一个有前景的方向。
摘要: Neural operators have emerged as a powerful tool for solving partial differential equations (PDEs) and other complex scientific computing tasks. However, the performance of single operator block is often limited, thus often requiring composition of basic operator blocks to achieve better per-formance. The traditional way of composition is staking those blocks like feedforward neural networks, which may not be very economic considering parameter-efficiency tradeoff. In this pa-per, we propose a novel dual path architecture that significantly enhances the capabilities of basic neural operators. The basic operator block is organized in parallel two paths which are similar with ResNet and DenseNet. By introducing this parallel processing mechanism, our architecture shows a more powerful feature extraction and solution approximation ability compared with the original model. We demonstrate the effectiveness of our approach through extensive numerical experi-ments on a variety of PDE problems, including the Burgers' equation, Darcy Flow Equation and the 2d Navier-Stokes equation. The experimental results indicate that on certain standard test cas-es, our model achieves a relative improvement of over 30% compared to the basic model. We also apply this structure on two standard neural operators (DeepONet and FNO) selected from different paradigms, which suggests that the proposed architecture has excellent versatility and offering a promising direction for neural operator structure design.
主题: 数值分析 (math.NA)
引用方式: arXiv:2507.12719 [math.NA]
  (或者 arXiv:2507.12719v1 [math.NA] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.12719
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yichen Wang [查看电子邮件]
[v1] 星期四, 2025 年 7 月 17 日 01:52:18 UTC (877 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math.NA
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.NA
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号