Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2501.03070v1

帮助 | 高级搜索

物理学 > 流体动力学

arXiv:2501.03070v1 (physics)
[提交于 2025年1月6日 ]

标题: 基于瘦多尺度卷积自编码器的可解释复杂动力系统特征的降阶模型

标题: Slim multi-scale convolutional autoencoder-based reduced-order models for interpretable features of a complex dynamical system

Authors:Philipp Teutsch, Philipp Pfeffer, Mohammad Sharifi Ghazijahani, Christian Cierpka, Jörg Schumacher, Patrick Mäder
摘要: 近年来,数据驱动的深度学习模型在湍流动力系统分析中引起了广泛关注。 在降阶模型(ROMs)的背景下,卷积自编码器(CAEs)为传统方法提供了一种通用的替代方案。 它们可以直接从数据中学习非线性变换,而无需了解系统的先验知识。 然而,这些模型生成的特征缺乏可解释性。 因此,得到的模型是一个黑箱,虽然有效地降低了系统的复杂性,但无法提供潜在特征的意义。 为了解决这一关键问题,我们引入了一种新的可解释的CAE方法,用于高维流体流动数据,该方法保持了传统CAEs的重建质量,并允许特征解释。 我们的方法可以轻松集成到任何现有的CAE架构中,只需对训练过程进行少量修改。 我们将该方法与本征正交分解(POD)以及两种现有的可解释CAE方法进行了比较。 我们将所有方法应用于三个不同复杂度的实验性湍流雷诺-贝纳德对流数据集。 我们的结果表明,所提出的方法轻量、易于训练,并且在64个模式下相对于POD的重建性能提高了高达6.4%。 当模式数量减少时,相对改进最高可达229.8%。 此外,我们的方法提供了类似于POD的可解释特征,并且比现有的CAE方法显著更少资源消耗,使用的参数不到2%。 这些方法要么以牺牲重建性能为代价来获得可解释性,要么仅能提供有限的可解释性。
摘要: In recent years, data-driven deep learning models have gained significant interest in the analysis of turbulent dynamical systems. Within the context of reduced-order models (ROMs), convolutional autoencoders (CAEs) pose a universally applicable alternative to conventional approaches. They can learn nonlinear transformations directly from data, without prior knowledge of the system. However, the features generated by such models lack interpretability. Thus, the resulting model is a black-box which effectively reduces the complexity of the system, but does not provide insights into the meaning of the latent features. To address this critical issue, we introduce a novel interpretable CAE approach for high-dimensional fluid flow data that maintains the reconstruction quality of conventional CAEs and allows for feature interpretation. Our method can be easily integrated into any existing CAE architecture with minor modifications of the training process. We compare our approach to Proper Orthogonal Decomposition (POD) and two existing methods for interpretable CAEs. We apply all methods to three different experimental turbulent Rayleigh-B\'enard convection datasets with varying complexity. Our results show that the proposed method is lightweight, easy to train, and achieves relative reconstruction performance improvements of up to 6.4% over POD for 64 modes. The relative improvement increases to up to 229.8% as the number of modes decreases. Additionally, our method delivers interpretable features similar to those of POD and is significantly less resource-intensive than existing CAE approaches, using less than 2% of the parameters. These approaches either trade interpretability for reconstruction performance or only provide interpretability to a limited extend.
主题: 流体动力学 (physics.flu-dyn) ; 机器学习 (cs.LG)
引用方式: arXiv:2501.03070 [physics.flu-dyn]
  (或者 arXiv:2501.03070v1 [physics.flu-dyn] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.03070
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Philipp Teutsch [查看电子邮件]
[v1] 星期一, 2025 年 1 月 6 日 15:06:07 UTC (4,718 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
physics.flu-dyn
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.LG
physics

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号