统计学 > 机器学习
[提交于 2025年10月6日
]
标题: 设定公平性:用于集合值分类的群体公平约束
标题: Set to Be Fair: Demographic Parity Constraints for Set-Valued Classification
摘要: 在多类设置中使用集合值分类,当类别之间可能发生混淆时,会导致误导性预测。 然而,其应用可能会加剧歧视性偏差,从而促使在公平性约束下开发集合值方法。 在本文中,我们研究了在人口均等性和期望大小约束下的集合值分类问题。 我们提出了两种互补策略:一种基于oracle的方法,在满足两个约束的同时最小化分类风险;另一种是计算高效的代理方法,优先考虑约束的满足。 对于这两种策略,我们推导了(最优)公平集合值分类器的显式表达式,并利用这些表达式构建了用于经验预测的插件、数据驱动程序。 我们建立了两种方法在大小和公平性约束违反方面的无分布收敛率,在较弱假设下,我们也为基于oracle的方法提供了额外风险界限。 实证结果展示了两种策略的有效性,并突出了我们代理方法的效率。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.