计算机科学 > 人工智能
[提交于 2025年7月10日
]
标题: 关于可信的基于规则的模型和解释
标题: On Trustworthy Rule-Based Models and Explanations
摘要: 机器学习(ML)中感兴趣的任务之一是为ML模型做出的预测提供解释。 此外,在被认为高风险的领域中,解释的严谨性至关重要。 确实,错误的解释可能会误导人类决策者。 因此,即使可解释性被公认为一个难以捉摸的概念,所谓的可解释模型在ML和数据挖掘(DM)的高风险应用中被普遍使用。 规则基础的ML模型就是这种情况,它们包括决策树、图示、集合和列表。 本文将解释与规则基础ML模型中众所周知的不良特性联系起来,这些特性包括负重叠和多种形式的冗余。 本文开发了用于分析这些规则系统不良特性的算法,并得出结论,众所周知且广泛使用的规则基础ML模型学习工具将导致表现出一个或多个负面特性的规则集。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.