Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2402.00232

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2402.00232 (cs)
[提交于 2024年1月31日 ]

标题: 带有监督对比学习的学习标签层次结构

标题: Learning Label Hierarchy with Supervised Contrastive Learning

Authors:Ruixue Lian, William A. Sethares, Junjie Hu
摘要: 监督对比学习(SCL)框架将每个类别视为独立的,因此认为所有类别同样重要。 这忽略了标签层次结构存在的常见情况,在这种情况下,同一类别下的细粒度类别比非常不同的类别更具相似性。 本文引入了一类标签感知的SCL方法(LASCL),通过利用类之间的相似性将层次信息融入SCL,从而创建一个更结构化和具有区分性的特征空间。 这是通过首先根据其类别的接近程度调整实例之间的距离来实现的,使用缩放的实例-实例对比。 引入了额外的实例-中心对比,以将类内示例移近由一组可学习标签参数表示的中心。 学习到的标签参数可以直接用作最近邻分类器,无需进一步微调。 这样,生成的特征表示在簇内紧凑性和簇间分离性方面都有所改进。 在三个数据集上的实验表明,所提出的LASCL在区分多标签中的单个标签的文本分类中表现良好,优于基线监督方法。 我们的代码是公开的。
摘要: Supervised contrastive learning (SCL) frameworks treat each class as independent and thus consider all classes to be equally important. This neglects the common scenario in which label hierarchy exists, where fine-grained classes under the same category show more similarity than very different ones. This paper introduces a family of Label-Aware SCL methods (LASCL) that incorporates hierarchical information to SCL by leveraging similarities between classes, resulting in creating a more well-structured and discriminative feature space. This is achieved by first adjusting the distance between instances based on measures of the proximity of their classes with the scaled instance-instance-wise contrastive. An additional instance-center-wise contrastive is introduced to move within-class examples closer to their centers, which are represented by a set of learnable label parameters. The learned label parameters can be directly used as a nearest neighbor classifier without further finetuning. In this way, a better feature representation is generated with improvements of intra-cluster compactness and inter-cluster separation. Experiments on three datasets show that the proposed LASCL works well on text classification of distinguishing a single label among multi-labels, outperforming the baseline supervised approaches. Our code is publicly available.
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI)
引用方式: arXiv:2402.00232 [cs.LG]
  (或者 arXiv:2402.00232v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2402.00232
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Ruixue Lian [查看电子邮件]
[v1] 星期三, 2024 年 1 月 31 日 23:21:40 UTC (1,938 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-02
切换浏览方式为:
cs
cs.AI

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号