统计学 > 机器学习
[提交于 2022年5月10日
(v1)
,最后修订 2022年7月4日 (此版本, v3)]
标题: 不要扔掉它! 无标签数据在公平决策中的作用
标题: Don't Throw it Away! The Utility of Unlabeled Data in Fair Decision Making
摘要: 决策算法在实践中通常是在包含各种偏见的数据上进行训练的。 决策者常常旨在基于某些被认为是无偏见的、即在社会显著群体中均匀分布的地面真实目标做出决策。 在许多实际场景中,地面真实目标无法直接观察到,相反,我们不得不依赖于地面真实目标的有偏见代理度量,即数据中的有偏见标签。 此外,数据往往是有选择性标记的,即即使是有偏见的标签,也只对收到积极决策的小部分数据进行观察。 为了克服标签和选择偏见,近期的工作提出通过以下两种方式学习随机探索决策策略:i)在每个时间步长上在线训练新策略;ii)将公平性作为性能的约束条件。 然而,现有方法仅使用标记数据,忽略了大量未标记数据,因此在不同时间学到的决策策略存在高不稳定性及方差问题。 本文提出了一种基于变分自编码器的实用公平决策制定新方法。 我们的方法利用标记和未标记数据学习无偏的数据表示,并使用这些表示在在线过程中学习策略。 通过合成数据,我们实证验证了我们的方法能够以低方差收敛至根据地面真实目标得出的最佳(公平)策略。 在现实世界实验中,我们进一步表明,我们的训练方法不仅提供了更稳定的训练过程,而且生成的策略在公平性和实用性方面都优于先前的方法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.