计算机科学 > 人工智能
[提交于 2024年6月5日
]
标题: 使用BRIO工具评估信用评分中的AI公平性
标题: Evaluating AI fairness in credit scoring with the BRIO tool
摘要: 我们提出了一种对AI系统中的公平性问题进行定量深入分析的方法,并将其应用于信用评分。为此,我们使用了BRIO,这是一种用于评估AI系统在社会不公平性以及更广泛意义上的伦理上不期望的行为方面的工具。它具有一种与模型无关的偏差检测模块,如\cite{DBLP:conf/beware/CoragliaDGGPPQ23}中所述,并添加了一个功能完善的不公平风险评估模块。作为案例研究,我们关注信用评分的背景,分析UCI德国信用数据集\cite{misc_statlog_(german_credit_data)_144}。我们将BRIO的公平性度量应用于德国信用数据集中具有社会敏感性的多个属性,量化了不同人口统计群体之间的公平性,旨在识别信用评分模型中的潜在偏差和歧视来源。最后,我们将结果与收入分析相结合。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.