Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.19514

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2510.19514 (cs)
[提交于 2025年10月22日 ]

标题: 从原型到稀疏心电图解释:多变量时间序列多类分类的SHAP驱动反事实方法

标题: From Prototypes to Sparse ECG Explanations: SHAP-Driven Counterfactuals for Multivariate Time-Series Multi-class Classification

Authors:Maciej Mozolewski, Betül Bayrak, Kerstin Bach, Grzegorz J. Nalepa
摘要: 在可解释的人工智能(XAI)中,基于实例的时间序列解释由于其在医疗保健等领域的可操作和可解释的见解潜力,正获得越来越多的关注。 为了解决先进模型的可解释性挑战,我们提出了一种原型驱动的框架,用于生成针对12导联心电图分类模型的稀疏反事实解释。 我们的方法使用基于SHAP的阈值来识别关键信号段,并将其转换为区间规则,使用动态时间规整(DTW)和中位数聚类来提取代表性原型,并将这些原型与查询R波对齐,以与被解释的样本保持一致。 该框架生成的反事实仅修改原始信号的78%,同时在所有类别中保持81.3%的有效性,并在时间稳定性方面实现了43%的改进。 我们评估了我们方法的三种变体,Original、Sparse和Aligned Sparse,其类别特定性能从心肌梗死(MI)的98.9%有效性到肥厚(HYP)检测的挑战(13.2%)。 这种方法支持近实时生成(<1秒)的临床有效反事实,并为交互式解释平台提供了基础。 我们的研究结果确立了基于生理学意识的反事实解释在基于人工智能的诊断系统中的设计原则,并概述了向临床部署用户控制的解释界面的路径。
摘要: In eXplainable Artificial Intelligence (XAI), instance-based explanations for time series have gained increasing attention due to their potential for actionable and interpretable insights in domains such as healthcare. Addressing the challenges of explainability of state-of-the-art models, we propose a prototype-driven framework for generating sparse counterfactual explanations tailored to 12-lead ECG classification models. Our method employs SHAP-based thresholds to identify critical signal segments and convert them into interval rules, uses Dynamic Time Warping (DTW) and medoid clustering to extract representative prototypes, and aligns these prototypes to query R-peaks for coherence with the sample being explained. The framework generates counterfactuals that modify only 78% of the original signal while maintaining 81.3% validity across all classes and achieving 43% improvement in temporal stability. We evaluate three variants of our approach, Original, Sparse, and Aligned Sparse, with class-specific performance ranging from 98.9% validity for myocardial infarction (MI) to challenges with hypertrophy (HYP) detection (13.2%). This approach supports near realtime generation (< 1 second) of clinically valid counterfactuals and provides a foundation for interactive explanation platforms. Our findings establish design principles for physiologically-aware counterfactual explanations in AI-based diagnosis systems and outline pathways toward user-controlled explanation interfaces for clinical deployment.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 人机交互 (cs.HC)
引用方式: arXiv:2510.19514 [cs.LG]
  (或者 arXiv:2510.19514v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.19514
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Maciej Mozolewski [查看电子邮件]
[v1] 星期三, 2025 年 10 月 22 日 12:09:50 UTC (16,744 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
cs.AI
cs.HC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号