Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2003.03689

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2003.03689 (cs)
[提交于 2020年3月8日 ]

标题: 逆特征学习:基于误差表示学习的特征学习

标题: Inverse Feature Learning: Feature learning based on Representation Learning of Error

Authors:Behzad Ghazanfari, Fatemeh Afghah, MohammadTaghi Hajiaghayi
摘要: 本文提出逆特征学习作为一种新颖的监督特征学习技术,该技术基于误差表示方法,学习一组用于分类的高级特征。 该方法的关键贡献是将误差的表示作为高级特征进行学习,而当前的表示学习方法通过损失函数来解释误差,这些损失函数是真值标签与预测结果之间差异的函数。 这种学习方法的一个优势是,每个类别的学习特征与其他类别的学习特征相互独立;因此,该方法可以同时学习,即可以在不重新训练的情况下学习新类别。 误差表示学习还可以通过添加一组有影响力的特征到原始数据集中,帮助提高泛化能力并减少过拟合的可能性,这些特征通过误差生成和分析过程捕捉每个实例与不同类别之间的关系。 该方法在实例具有多样特征表示或类别不平衡的数据集中尤其有效。 实验结果表明,与几种流行数据集上的最新分类技术相比,所提出的方法取得了显著更好的性能。 我们希望本文能为在不同特征学习领域利用所提出的误差表示学习视角开辟一条新的路径。
摘要: This paper proposes inverse feature learning as a novel supervised feature learning technique that learns a set of high-level features for classification based on an error representation approach. The key contribution of this method is to learn the representation of error as high-level features, while current representation learning methods interpret error by loss functions which are obtained as a function of differences between the true labels and the predicted ones. One advantage of such learning method is that the learned features for each class are independent of learned features for other classes; therefore, this method can learn simultaneously meaning that it can learn new classes without retraining. Error representation learning can also help with generalization and reduce the chance of over-fitting by adding a set of impactful features to the original data set which capture the relationships between each instance and different classes through an error generation and analysis process. This method can be particularly effective in data sets, where the instances of each class have diverse feature representations or the ones with imbalanced classes. The experimental results show that the proposed method results in significantly better performance compared to the state-of-the-art classification techniques for several popular data sets. We hope this paper can open a new path to utilize the proposed perspective of error representation learning in different feature learning domains.
主题: 机器学习 (cs.LG) ; 机器学习 (stat.ML)
引用方式: arXiv:2003.03689 [cs.LG]
  (或者 arXiv:2003.03689v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2003.03689
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Behzad Ghazanfari [查看电子邮件]
[v1] 星期日, 2020 年 3 月 8 日 00:22:26 UTC (384 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2020-03
切换浏览方式为:
cs
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号