Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2411.00139

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2411.00139 (cs)
[提交于 2024年10月31日 ]

标题: 在可解释设计卷积神经网络中学习局部离散特征

标题: Learning local discrete features in explainable-by-design convolutional neural networks

Authors:Pantelis I. Kaplanoglou, Konstantinos Diamantaras
摘要: 我们提出的框架试图通过引入一种基于侧向抑制机制的可解释设计卷积神经网络(CNN)来打破性能和可解释性之间的权衡。 ExplaiNet模型由预测器组成,即一个具有残差或密集跳跃连接的高精度CNN,以及一个表达网络神经元空间相互作用的概率图。 每个图节点的值是一个局部离散特征(LDF)向量,这是一种补丁描述符,表示按激活强度排序的对抗神经元的索引,这些索引是通过梯度下降学习得到的。 使用LDF作为序列,我们可以通过重新利用EXTREME,一种通常用于分子生物学的基于EM的序列基序发现方法,来增加解释的简洁性。 对于每个中间图像表示,拥有一个离散特征基序矩阵,而不是连续激活张量,使我们能够利用贝叶斯网络固有的可解释性。 通过收集观察结果并直接计算概率,我们可以解释相邻层次基序之间的因果关系,并将模型的输出归因于全局基序。 此外,在各种微小图像基准数据集上的实验确认,我们的预测器在给定参数和/或层的数量下可以确保与基线架构相同水平的性能。 我们的新方法显示出超越此性能的潜力,同时提供额外的解释流。 在解决的MNIST分类任务中,它达到了与最先进单模型相当的性能,使用标准训练设置和0.75百万参数。
摘要: Our proposed framework attempts to break the trade-off between performance and explainability by introducing an explainable-by-design convolutional neural network (CNN) based on the lateral inhibition mechanism. The ExplaiNet model consists of the predictor, that is a high-accuracy CNN with residual or dense skip connections, and the explainer probabilistic graph that expresses the spatial interactions of the network neurons. The value on each graph node is a local discrete feature (LDF) vector, a patch descriptor that represents the indices of antagonistic neurons ordered by the strength of their activations, which are learned with gradient descent. Using LDFs as sequences we can increase the conciseness of explanations by repurposing EXTREME, an EM-based sequence motif discovery method that is typically used in molecular biology. Having a discrete feature motif matrix for each one of intermediate image representations, instead of a continuous activation tensor, allows us to leverage the inherent explainability of Bayesian networks. By collecting observations and directly calculating probabilities, we can explain causal relationships between motifs of adjacent levels and attribute the model's output to global motifs. Moreover, experiments on various tiny image benchmark datasets confirm that our predictor ensures the same level of performance as the baseline architecture for a given count of parameters and/or layers. Our novel method shows promise to exceed this performance while providing an additional stream of explanations. In the solved MNIST classification task, it reaches a comparable to the state-of-the-art performance for single models, using standard training setup and 0.75 million parameters.
主题: 机器学习 (cs.LG)
引用方式: arXiv:2411.00139 [cs.LG]
  (或者 arXiv:2411.00139v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2411.00139
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Pantelis Kaplanoglou [查看电子邮件]
[v1] 星期四, 2024 年 10 月 31 日 18:39:41 UTC (7,611 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-11
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号