Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2108.00455

帮助 | 高级搜索

物理学 > 计算物理

arXiv:2108.00455 (physics)
[提交于 2021年8月1日 ]

标题: KiNet:化学动力学的深度神经网络表示

标题: KiNet: A Deep Neural Network Representation of Chemical Kinetics

Authors:Weiqi Ji, Sili Deng
摘要: 深度学习是一种从实验数据中自动开发动力学模型的潜在方法。 我们提出了一种KiNet的深度神经网络模型来表示化学动力学。 KiNet根据当前组成状态预测固定时间步长后的状态演变。 通过多次递归应用KiNet模型,可以高效地获得状态的长期演变及其对模型参数的梯度。 为了解决高维组成空间和长期预测中的误差累积问题,KiNet的架构结合了残差网络模型(ResNet),并且训练采用通过时间反向传播(BPTT)方法来最小化多步预测误差。 此外,提出了一种高效计算点火延迟时间(IDT)对KiNet模型参数梯度的方法,以训练KiNet与文献中的丰富IDT数据库相匹配,这可以解决时间分辨物种测量的稀缺性。 KiNet首先在氢气/空气混合物自燃过程中的模拟物种轮廓上进行训练和比较。 获得的KiNet模型可以准确预测各种初始条件下的自燃过程,这些初始条件涵盖了广泛的压力、温度和当量比。 然后,我们表明IDT对KiNet模型参数的梯度与点火点温度的梯度平行。 这种相关性使得可以通过反向传播高效计算IDT的梯度,并被证明是针对IDT微调KiNet的可行方法。 这些演示将开启自主构建数据驱动动力学模型的可能性。 最后,训练好的KiNet可能被应用于湍流燃烧模拟中的动力学模型简化和化学加速。
摘要: Deep learning is a potential approach to automatically develop kinetic models from experimental data. We propose a deep neural network model of KiNet to represent chemical kinetics. KiNet takes the current composition states and predicts the evolution of the states after a fixed time step. The long-period evolution of the states and their gradients to model parameters can be efficiently obtained by recursively applying the KiNet model multiple times. To address the challenges of the high-dimensional composition space and error accumulation in long-period prediction, the architecture of KiNet incorporates the residual network model (ResNet), and the training employs backpropagation through time (BPTT) approach to minimize multi-step prediction error. In addition, an approach for efficiently computing the gradient of the ignition delay time (IDT) to KiNet model parameters is proposed to train the KiNet against the rich database of IDT from literature, which could address the scarcity of time-resolved species measurements. The KiNet is first trained and compared with the simulated species profiles during the auto-ignition of H2/air mixtures. The obtained KiNet model can accurately predict the auto-ignition processes for various initial conditions that cover a wide range of pressures, temperatures, and equivalence ratios. Then, we show that the gradient of IDT to KiNet model parameters is parallel to the gradient of the temperature at the ignition point. This correlation enables efficient computation of the gradient of IDT via backpropagation and is demonstrated as a feasible approach for fine-tuning the KiNet against IDT. These demonstrations shall open up the possibility of building data-driven kinetic models autonomously. Finally, the trained KiNet could be potentially applied to kinetic model reduction and chemistry acceleration in turbulent combustion simulations.
主题: 计算物理 (physics.comp-ph)
引用方式: arXiv:2108.00455 [physics.comp-ph]
  (或者 arXiv:2108.00455v1 [physics.comp-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2108.00455
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Weiqi Ji [查看电子邮件]
[v1] 星期日, 2021 年 8 月 1 日 13:31:04 UTC (1,069 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
许可图标 查看许可
当前浏览上下文:
physics.comp-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2021-08
切换浏览方式为:
physics

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号