Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2108.01983v1

帮助 | 高级搜索

数学 > 优化与控制

arXiv:2108.01983v1 (math)
[提交于 2021年8月4日 ]

标题: 用于生成半线性最优控制问题POD模型快照的简化牛顿方法

标题: A simplified Newton method to generate snapshots for POD models of semilinear optimal control problems

Authors:Paul Manns, Stefan Ulbrich
摘要: 在PDE约束优化中,本征正交分解(POD)提供了一个(可能昂贵的)PDE离散化的代理模型,在该模型上执行优化迭代。 由于POD模型通常仅在局部提供良好的近似质量,因此在优化过程中必须对其进行更新。 然而,更新POD模型通常是昂贵的,因此在模型预测控制(MPC)背景下往往不可行。 因此,可能接受质量一般的降阶模型。 我们采用求解半线性演化方程的简化牛顿法的观点,推导出一个算法,该算法可以作为离线阶段来生成POD模型。 在这一背景下,通过脉冲响应快照构建POD模型的方法可以被视为第一个牛顿步骤。 特别是,基于脉冲响应快照的POD模型通过添加第二个简化牛顿步骤进行扩展。 此过程通过在优化或MPC循环中引入适量的额外计算成本,显著提高了POD模型的近似质量。 我们通过一个满足我们假设的示例来说明我们的发现。
摘要: In PDE-constrained optimization, proper orthogonal decomposition (POD) provides a surrogate model of a (potentially expensive) PDE discretization, on which optimization iterations are executed. Because POD models usually provide good approximation quality only locally, they have to be updated during optimization. Updating the POD model is usually expensive, however, and therefore often impossible in a model-predictive control (MPC) context. Thus, reduced models of mediocre quality might be accepted. We take the view of a simplified Newton method for solving semilinear evolution equations to derive an algorithm that can serve as an offline phase to produce a POD model. Approaches that build the POD model with impulse response snapshots can be regarded as the first Newton step in this context. In particular, POD models that are based on impulse response snapshots are extended by adding a second simplified Newton step. This procedure improves the approximation quality of the POD model significantly by introducing a moderate amount of extra computational costs during optimization or the MPC loop. We illustrate our findings with an example satisfying our assumptions.
主题: 优化与控制 (math.OC) ; 数值分析 (math.NA)
MSC 类: 65M60, 35K20
引用方式: arXiv:2108.01983 [math.OC]
  (或者 arXiv:2108.01983v1 [math.OC] 对于此版本)
  https://doi.org/10.48550/arXiv.2108.01983
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Stefan Ulbrich [查看电子邮件]
[v1] 星期三, 2021 年 8 月 4 日 11:48:28 UTC (105 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
math.OC
< 上一篇   |   下一篇 >
新的 | 最近的 | 2021-08
切换浏览方式为:
cs
cs.NA
math
math.NA

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号