计算机科学 > 机器学习
[提交于 2012年9月13日
]
标题: 最小最大多任务学习和多任务学习的广义损失组合范式
标题: Minimax Multi-Task Learning and a Generalized Loss-Compositional Paradigm for MTL
摘要: 自多任务学习(MTL)诞生以来,其操作方式一直是最小化经验风险的任务平均值。 我们引入了一种广义的损失组合范式用于MTL,该范式包含一系列公式作为子族。 这个谱系的一个端点是极小极大MTL:一种新的MTL公式,它最小化各个任务的经验风险的最大值。 通过某种对极小极大MTL的松弛,我们得到一个连续的MTL公式范围,涵盖极小极大MTL和经典MTL。 整个范式本身是损失组合的,作用于经验风险的向量。 它包含了极小极大MTL、它的松弛形式以及许多新的MTL公式作为特例。 我们从理论上证明了极小极大MTL在学习到学习(LTL)测试设置中,倾向于避免新抽取测试任务的最坏结果。 在MTL和LTL测试设置中,几种MTL公式在合成和实际问题上的结果令人鼓舞。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.