Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2412.09964

帮助 | 高级搜索

物理学 > 数据分析、统计与概率

arXiv:2412.09964 (physics)
[提交于 2024年12月13日 (v1) ,最后修订 2025年3月12日 (此版本, v2)]

标题: 通过可预测性分解评估特征重要性的高阶效应

标题: Assessing high-order effects in feature importance via predictability decomposition

Authors:Marlis Ontivero-Ortega, Luca Faes, Jesus M Cortes, Daniele Marinazzo, Sebastiano Stramaglia
摘要: 利用近年来大量用于描述随机变量多元交互中的冗余和协同作用的工作,我们提出了一种新颖的方法来量化特征重要性中的合作效应,这是可解释人工智能中最常用的技术之一。 特别是,我们提出了一个知名特征重要性度量的自适应版本,称为留一协变量法(LOCO),以分解回归问题中涉及特定输入特征的高阶效应。 LOCO 是指在考虑的特征被加入到用于回归的所有特征集合时,预测误差的减少。 与标准版本中使用所有可用特征计算 LOCO 不同,我们的方法寻找使 LOCO 最大化的特征组以及使 LOCO 最小化的特征组。 这提供了 LOCO 的分解,将其表示为二体成分和高阶成分(冗余和协同)之和,同时也突出了与其他驱动特征一起构建这些高阶效应的特征。 我们将该方法应用于基于 GEANT 模拟探测器测量的质子/介子鉴别任务中。
摘要: Leveraging the large body of work devoted in recent years to describe redundancy and synergy in multivariate interactions among random variables, we propose a novel approach to quantify cooperative effects in feature importance, one of the most used techniques for explainable artificial intelligence. In particular, we propose an adaptive version of a well-known metric of feature importance, named Leave One Covariate Out (LOCO), to disentangle high-order effects involving a given input feature in regression problems. LOCO is the reduction of the prediction error when the feature under consideration is added to the set of all the features used for regression. Instead of calculating the LOCO using all the features at hand, as in its standard version, our method searches for the multiplet of features that maximize LOCO and for the one that minimize it. This provides a decomposition of the LOCO as the sum of a two-body component and higher-order components (redundant and synergistic), also highlighting the features that contribute to building these high-order effects alongside the driving feature. We report the application to proton/pion discrimination from simulated detector measures by GEANT.
评论: 11页,3幅图
主题: 数据分析、统计与概率 (physics.data-an) ; 机器学习 (stat.ML)
引用方式: arXiv:2412.09964 [physics.data-an]
  (或者 arXiv:2412.09964v2 [physics.data-an] 对于此版本)
  https://doi.org/10.48550/arXiv.2412.09964
通过 DataCite 发表的 arXiv DOI
期刊参考: Phys. Rev. E 111, L033301 (2025)
相关 DOI: https://doi.org/10.1103/PhysRevE.111.L033301
链接到相关资源的 DOI

提交历史

来自: Sebastiano Stramaglia [查看电子邮件]
[v1] 星期五, 2024 年 12 月 13 日 08:47:16 UTC (768 KB)
[v2] 星期三, 2025 年 3 月 12 日 18:06:05 UTC (815 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
physics.data-an
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-12
切换浏览方式为:
physics
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号