数学 > 数值分析
[提交于 2019年11月6日
(v1)
,最后修订 2020年9月14日 (此版本, v2)]
标题: 基于参数域分解与重构的降阶基方法自适应贪心算法
标题: Adaptive greedy algorithms based on parameter-domain decomposition and reconstruction for the reduced basis method
摘要: 通过离线-在线分解,减少基方法(RBM)能够对参数化偏微分方程进行重复和快速评估,也称为学习-执行过程。该方法的一个关键特征是贪婪算法反复扫描训练集,即参数域的精细离散化,以确定沿参数诱导解流形的下一个维度,从而扩展代理解空间。尽管该方法已被成功应用于具有相当高参数维度的问题,但挑战在于这种扫描成本主导了离线成本,因为它与训练集的基数成正比,而训练集的基数随着参数维度呈指数增长。在本工作中,我们回顾了三种有效延缓维度灾难的最新尝试,并通过逐步细化和在训练集上对误差估计进行多级最大化提出了两种新的混合策略。所有五种离线增强方法和原始贪婪算法都在两种类型的问题上进行了测试和比较:热块问题和几何参数化的赫姆霍兹问题。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.