计算机科学 > 机器学习
[提交于 2024年10月31日
]
标题: 在可解释设计卷积神经网络中学习局部离散特征
标题: Learning local discrete features in explainable-by-design convolutional neural networks
摘要: 我们提出的框架试图通过引入一种基于侧向抑制机制的可解释设计卷积神经网络(CNN)来打破性能和可解释性之间的权衡。 ExplaiNet模型由预测器组成,即一个具有残差或密集跳跃连接的高精度CNN,以及一个表达网络神经元空间相互作用的概率图。 每个图节点的值是一个局部离散特征(LDF)向量,这是一种补丁描述符,表示按激活强度排序的对抗神经元的索引,这些索引是通过梯度下降学习得到的。 使用LDF作为序列,我们可以通过重新利用EXTREME,一种通常用于分子生物学的基于EM的序列基序发现方法,来增加解释的简洁性。 对于每个中间图像表示,拥有一个离散特征基序矩阵,而不是连续激活张量,使我们能够利用贝叶斯网络固有的可解释性。 通过收集观察结果并直接计算概率,我们可以解释相邻层次基序之间的因果关系,并将模型的输出归因于全局基序。 此外,在各种微小图像基准数据集上的实验确认,我们的预测器在给定参数和/或层的数量下可以确保与基线架构相同水平的性能。 我们的新方法显示出超越此性能的潜力,同时提供额外的解释流。 在解决的MNIST分类任务中,它达到了与最先进单模型相当的性能,使用标准训练设置和0.75百万参数。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.