Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:1902.00091v5

帮助 | 高级搜索

物理学 > 计算物理

arXiv:1902.00091v5 (physics)
[提交于 2019年1月26日 (v1) ,最后修订 2019年12月6日 (此版本, v5)]

标题: 从受限的空气动力学数据集进行快速神经网络预测

标题: Fast Neural Network Predictions from Constrained Aerodynamics Datasets

Authors:Cristina White, Daniela Ushizima, Charbel Farhat
摘要: 在喷气式飞机、航天器或燃气轮机发动机的设计过程中,引入计算流体力学通常受到所需的计算资源和仿真时间的挑战,而这取决于所选择的基于物理的计算模型和网格分辨率。 该领域的一个持续问题是,如何更快地模拟这些系统,同时仍保持足够的准确性。 虽然许多方法涉及简化底层物理模型,但其他方法则是无模型的,并且仅基于现有的仿真数据进行预测。 我们提出了一种新的无模型方法,通过重新构建仿真问题来有效地增加约束预计算数据集的规模,并引入一种新颖的神经网络架构(称为聚类网络),该架构具有适合高度非线性计算流体力学解的归纳偏差。 与基于模型的近似方法相比,我们证明我们的方法几乎同样准确,速度快一个数量级,并且更容易应用。 此外,我们展示了我们的方法优于其他无模型方法。
摘要: Incorporating computational fluid dynamics in the design process of jets, spacecraft, or gas turbine engines is often challenged by the required computational resources and simulation time, which depend on the chosen physics-based computational models and grid resolutions. An ongoing problem in the field is how to simulate these systems faster but with sufficient accuracy. While many approaches involve simplified models of the underlying physics, others are model-free and make predictions based only on existing simulation data. We present a novel model-free approach in which we reformulate the simulation problem to effectively increase the size of constrained pre-computed datasets and introduce a novel neural network architecture (called a cluster network) with an inductive bias well-suited to highly nonlinear computational fluid dynamics solutions. Compared to the state-of-the-art in model-based approximations, we show that our approach is nearly as accurate, an order of magnitude faster, and easier to apply. Furthermore, we show that our method outperforms other model-free approaches.
主题: 计算物理 (physics.comp-ph) ; 机器学习 (cs.LG); 机器学习 (stat.ML)
引用方式: arXiv:1902.00091 [physics.comp-ph]
  (或者 arXiv:1902.00091v5 [physics.comp-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.1902.00091
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Cristina White [查看电子邮件]
[v1] 星期六, 2019 年 1 月 26 日 03:58:17 UTC (1,145 KB)
[v2] 星期二, 2019 年 2 月 5 日 20:28:21 UTC (1,145 KB)
[v3] 星期六, 2019 年 2 月 9 日 18:05:19 UTC (1,145 KB)
[v4] 星期四, 2019 年 12 月 5 日 03:43:09 UTC (1,160 KB)
[v5] 星期五, 2019 年 12 月 6 日 03:09:06 UTC (1,160 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
physics.comp-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2019-02
切换浏览方式为:
cs
cs.LG
physics
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号