Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2504.19812v1

帮助 | 高级搜索

数学 > 数值分析

arXiv:2504.19812v1 (math)
[提交于 2025年4月28日 ]

标题: 关于模型失配的超微分灵敏度分析:先验分布

标题: Hyper-differential sensitivity analysis with respect to model discrepancy: Prior Distributions

Authors:Joseph Hart, Bart van Bloemen Waanders, Jixian Li, Timbwaoga A. J. Ouermi, Chris R. Johnson
摘要: 针对模型差异的超微分灵敏度分析最近被开发出来,以实现优化问题的不确定性量化。 该方法包括两个主要步骤:(i)高保真和低保真模型之间差异的贝叶斯校准,以及(ii)通过优化问题传播模型差异的不确定性。 当高保真模型评估受到限制时,如实践中常见的情况,先验差异分布在不确定性分析中起着至关重要的作用。 然而,由于其数学复杂性和许多超参数,指定这个先验具有挑战性。 本文提出了一种指定先验分布的新方法。 我们的方法分为两部分:(1)一种算法初始化先验超参数的方法,使用现有数据来初始化超参数估计值;(2)一个可视化框架,系统地探索先验的特性,并指导超参数的调整,以确保先验捕获适当的不确定性范围。 我们提供了详细的数学分析和一组数值例子,阐明了确保不确定性量化的关键先验特性。
摘要: Hyper-differential sensitivity analysis with respect to model discrepancy was recently developed to enable uncertainty quantification for optimization problems. The approach consists of two primary steps: (i) Bayesian calibration of the discrepancy between high- and low-fidelity models, and (ii) propagating the model discrepancy uncertainty through the optimization problem. When high-fidelity model evaluations are limited, as is common in practice, the prior discrepancy distribution plays a crucial role in the uncertainty analysis. However, specification of this prior is challenging due to its mathematical complexity and many hyper-parameters. This article presents a novel approach to specify the prior distribution. Our approach consists of two parts: (1) an algorithmic initialization of the prior hyper-parameters that uses existing data to initialize a hyper-parameter estimate, and (2) a visualization framework to systematically explore properties of the prior and guide tuning of the hyper-parameters to ensure that the prior captures the appropriate range of uncertainty. We provide detailed mathematical analysis and a collection of numerical examples that elucidate properties of the prior that are crucial to ensure uncertainty quantification.
主题: 数值分析 (math.NA)
引用方式: arXiv:2504.19812 [math.NA]
  (或者 arXiv:2504.19812v1 [math.NA] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.19812
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Joseph Hart [查看电子邮件]
[v1] 星期一, 2025 年 4 月 28 日 14:09:37 UTC (6,818 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math.NA
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs
cs.NA
math

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号