Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2507.14782v1

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2507.14782v1 (stat)
[提交于 2025年7月20日 ]

标题: 基于机器学习预测的不确定性量化:用于联合模型和输入不确定性传播的多项式混沌展开方法

标题: Uncertainty Quantification for Machine Learning-Based Prediction: A Polynomial Chaos Expansion Approach for Joint Model and Input Uncertainty Propagation

Authors:Xiaoping Du
摘要: 机器学习(ML)代理模型在工程分析和设计中被越来越多地使用,以替代计算成本高昂的仿真模型,显著降低计算成本并加速决策过程。 然而,ML预测包含固有的误差,通常被估计为模型不确定性,这与模型输入的变异性相关联。 准确量化和传播这些综合不确定性对于生成可靠的工程预测至关重要。 本文提出了一种基于多项式混沌展开(PCE)的稳健框架,用于处理联合输入和模型不确定性传播。 虽然该方法广泛适用于一般的ML代理模型,但我们专注于高斯过程回归模型,这些模型为模型不确定性提供了明确的预测分布。 通过将所有随机输入转换为统一的标准空间,构建了一个PCE代理模型,使得输出的均值和标准差能够高效且准确地计算。 所提出的方法还提供了一种全局敏感性分析机制,能够准确量化输入变量和ML模型不确定性对整体输出变异性的个体贡献。 该方法为全面的不确定性量化提供了一个计算效率高且易于解释的框架,在后续的工程应用中支持可信赖的ML预测。
摘要: Machine learning (ML) surrogate models are increasingly used in engineering analysis and design to replace computationally expensive simulation models, significantly reducing computational cost and accelerating decision-making processes. However, ML predictions contain inherent errors, often estimated as model uncertainty, which is coupled with variability in model inputs. Accurately quantifying and propagating these combined uncertainties is essential for generating reliable engineering predictions. This paper presents a robust framework based on Polynomial Chaos Expansion (PCE) to handle joint input and model uncertainty propagation. While the approach applies broadly to general ML surrogates, we focus on Gaussian Process regression models, which provide explicit predictive distributions for model uncertainty. By transforming all random inputs into a unified standard space, a PCE surrogate model is constructed, allowing efficient and accurate calculation of the mean and standard deviation of the output. The proposed methodology also offers a mechanism for global sensitivity analysis, enabling the accurate quantification of the individual contributions of input variables and ML model uncertainty to the overall output variability. This approach provides a computationally efficient and interpretable framework for comprehensive uncertainty quantification, supporting trustworthy ML predictions in downstream engineering applications.
评论: 该手稿已提交给《多学科与结构优化》
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG); 数学物理 (math-ph); 计算 (stat.CO)
引用方式: arXiv:2507.14782 [stat.ML]
  (或者 arXiv:2507.14782v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.14782
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Xiaoping Du [查看电子邮件]
[v1] 星期日, 2025 年 7 月 20 日 01:47:50 UTC (281 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.LG
math
math-ph
math.MP
stat
stat.CO

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号