Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2506.03016

帮助 | 高级搜索

物理学 > 流体动力学

arXiv:2506.03016 (physics)
[提交于 2025年6月3日 ]

标题: 深度学习与迭代方法的混合用于加速粘性不可压缩流的求解

标题: Hybrid deep learning and iterative methods for accelerated solutions of viscous incompressible flow

Authors:Heming Bai, Xin Bian
摘要: 压力泊松方程是不可压缩流动模拟中分数步法的核心,由于需要迭代求解大规模线性系统,因此计算成本较高。 为了解决这一挑战,我们引入了HyDEA,这是一种新颖的框架,将深度学习与经典迭代求解器相结合。 它利用了DeepONet(能够捕捉解的大尺度特征)和CG或PCG方法(能够高效解决细尺度误差)的互补优势。 具体来说,在线搜索方法的框架内,DeepONet预测搜索方向以加速稀疏、对称正定线性系统的收敛,而CG/PCG方法通过迭代细化确保鲁棒性。 该框架通过解耦的浸入边界投影方法无缝扩展到固体结构上的流场。 至关重要的是,DeepONet是在人造线性系统上训练的,而不是特定于流场数据,这使它能够在几何复杂性和雷诺数方面具有内在的泛化能力,而无需重新训练。 基准测试表明,HyDEA相对于CG/PCG方法在无障碍物、单个或多个固定障碍物以及一个移动障碍物的流动情况下表现出更高的效率和准确性——使用固定的网络权重。 值得注意的是,HyDEA还表现出超分辨率能力:尽管DeepONet是在Re=1000的128×128网格上训练的,但混合求解器通过插值在Re=10000的512×512网格上提供了准确的解决方案,尽管存在离散化不匹配。 相比之下,纯粹的数据驱动型DeepONet在复杂流场中失败,突显了将深度学习与迭代方法结合的必要性。 HyDEA在几何形状、分辨率和雷诺数方面的鲁棒性、效率和通用性展示了其作为现实世界流体力学问题变革性求解器的潜力。
摘要: The pressure Poisson equation, central to the fractional step method in incompressible flow simulations, incurs high computational costs due to the iterative solution of large-scale linear systems. To address this challenge, we introduce HyDEA, a novel framework that synergizes deep learning with classical iterative solvers. It leverages the complementary strengths of a DeepONet - capable of capturing large-scale features of the solution - and the CG or a PCG method, which efficiently resolves fine-scale errors. Specifically, within the framework of line-search methods, the DeepONet predicts search directions to accelerate convergence in solving sparse, symmetric-positive-definite linear systems, while the CG/ PCG method ensures robustness through iterative refinement. The framework seamlessly extends to flows over solid structures via the decoupled immersed boundary projection method. Crucially, the DeepONet is trained on fabricated linear systems rather than flow specific data, endowing it with inherent generalization across geometric complexities and Reynolds numbers without retraining. Benchmarks demonstrate superior efficiency and accuracy of HyDEA over the CG/PCG methods for flows with no obstacles, single or multiple stationary obstacles, and one moving obstacle - using fixed network weights. Remarkably, HyDEA also exhibits super-resolution capability: although the DeepONet is trained on a 128*128 grid for Re=1000, the hybrid solver delivers accurate solutions on a 512*512 grid for Re=10000 via interpolation, despite discretizations mismatch. In contrast, a purely data-driven DeepONet fails for complex flows, underscoring the necessity of hybridizing deep learning with iterative methods. Robustness, efficiency, and generalization across geometries, resolutions, and Reynolds numbers of HyDEA highlight its potential as a transformative solver for real world fluid dynamics problems.
主题: 流体动力学 (physics.flu-dyn)
引用方式: arXiv:2506.03016 [physics.flu-dyn]
  (或者 arXiv:2506.03016v1 [physics.flu-dyn] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.03016
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Heming Bai [查看电子邮件]
[v1] 星期二, 2025 年 6 月 3 日 15:54:17 UTC (32,910 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
physics.flu-dyn
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
physics

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号