Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2406.05764

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2406.05764 (cs)
[提交于 2024年6月9日 ]

标题: 贝叶斯网络中不确定参数的全局敏感性分析

标题: Global Sensitivity Analysis of Uncertain Parameters in Bayesian Networks

Authors:Rafael Ballester-Ripoll, Manuele Leonelli
摘要: 传统上,贝叶斯网络的敏感性分析研究以一次一个(OAT)的方式单独修改其条件概率表中的条目所产生的影响。 然而,这种方法无法全面说明每个输入的相关性,因为两个或更多参数的同时扰动通常会引发OAT分析无法捕捉的高阶效应。 我们建议进行全局方差基础的敏感性分析,其中$n$个参数同时被视为不确定,并对其重要性进行联合评估。 我们的方法通过将不确定性编码为$n$个网络的额外变量来实现。 为了在增加这些维度时防止维度灾难,我们使用低秩张量分解将新的势能分解为较小的因子。 最后,我们将Sobol方法应用于所得网络以获得$n$个全局敏感性指数。 使用由专家提取和学习得到的贝叶斯网络组成的基准数组,我们证明Sobol指数与OAT指数可能显著不同,从而揭示了不确定参数及其相互作用的真实影响。
摘要: Traditionally, the sensitivity analysis of a Bayesian network studies the impact of individually modifying the entries of its conditional probability tables in a one-at-a-time (OAT) fashion. However, this approach fails to give a comprehensive account of each inputs' relevance, since simultaneous perturbations in two or more parameters often entail higher-order effects that cannot be captured by an OAT analysis. We propose to conduct global variance-based sensitivity analysis instead, whereby $n$ parameters are viewed as uncertain at once and their importance is assessed jointly. Our method works by encoding the uncertainties as $n$ additional variables of the network. To prevent the curse of dimensionality while adding these dimensions, we use low-rank tensor decomposition to break down the new potentials into smaller factors. Last, we apply the method of Sobol to the resulting network to obtain $n$ global sensitivity indices. Using a benchmark array of both expert-elicited and learned Bayesian networks, we demonstrate that the Sobol indices can significantly differ from the OAT indices, thus revealing the true influence of uncertain parameters and their interactions.
主题: 人工智能 (cs.AI)
引用方式: arXiv:2406.05764 [cs.AI]
  (或者 arXiv:2406.05764v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2406.05764
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Manuele Leonelli [查看电子邮件]
[v1] 星期日, 2024 年 6 月 9 日 12:36:38 UTC (418 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号