统计学 > 机器学习
标题: 不要扔掉它! 在公平决策中的无标签数据的效用
标题: Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision Making
摘要: 决策算法在实践中通常是在表现出各种偏见的数据上进行训练的。 决策者通常旨在根据某种假设或预期为无偏的真值目标做出决策,即在社会显著群体中均匀分布。 在许多实际情况下,真值无法直接观察到,而是必须依赖于真值的有偏代理度量,即数据中的有偏标签。 此外,数据通常是选择性标注的,即即使是有偏的标签也只在一小部分获得积极决策的数据中被观察到。 为了克服标签和选择偏差,最近的工作提出通过i) 在每个时间步在线训练新策略以及ii) 将公平性作为性能约束来学习随机探索决策策略。 然而,现有方法仅使用已标记的数据,忽视了大量未标记的数据,因此在不同时间点学习的决策策略中表现出高不稳定性和方差。 在本文中,我们提出了一种基于变分自编码器的实用公平决策的新方法。 我们的方法利用已标记和未标记数据学习一个无偏的数据表示,并在在线过程中使用这些表示来学习一个策略。 使用合成数据,我们实证验证了我们的方法能够根据真值以低方差收敛到最优(公平)策略。 在现实世界实验中,我们进一步表明,我们的训练方法不仅提供了更稳定的学过程,而且产生的策略在公平性和效用方面都优于之前的方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.