计算机科学 > 机器学习
[提交于 2020年3月8日
]
标题: 逆特征学习:基于误差表示学习的特征学习
标题: Inverse Feature Learning: Feature learning based on Representation Learning of Error
摘要: 本文提出逆特征学习作为一种新颖的监督特征学习技术,该技术基于误差表示方法,学习一组用于分类的高级特征。 该方法的关键贡献是将误差的表示作为高级特征进行学习,而当前的表示学习方法通过损失函数来解释误差,这些损失函数是真值标签与预测结果之间差异的函数。 这种学习方法的一个优势是,每个类别的学习特征与其他类别的学习特征相互独立;因此,该方法可以同时学习,即可以在不重新训练的情况下学习新类别。 误差表示学习还可以通过添加一组有影响力的特征到原始数据集中,帮助提高泛化能力并减少过拟合的可能性,这些特征通过误差生成和分析过程捕捉每个实例与不同类别之间的关系。 该方法在实例具有多样特征表示或类别不平衡的数据集中尤其有效。 实验结果表明,与几种流行数据集上的最新分类技术相比,所提出的方法取得了显著更好的性能。 我们希望本文能为在不同特征学习领域利用所提出的误差表示学习视角开辟一条新的路径。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.