计算机科学 > 机器学习
[提交于 2023年4月5日
(v1)
,最后修订 2025年4月8日 (此版本, v2)]
标题: 自监督孪生自动编码器
标题: Self-Supervised Siamese Autoencoders
摘要: 与全监督模型相比,自监督表示学习只需要一小部分数据被标记,并且通常能够实现相同甚至更高的下游性能。 目标是在自监督任务上预训练深度神经网络,使其能够从原始输入数据中提取有意义的特征。 之前,自动编码器和孪生网络已被成功用作图像分类等任务的特征提取器。 然而,两者都有各自的缺点和优点。 在本文中,我们通过提出一种新的方法称为SidAE(孪生去噪自动编码器)来结合它们的互补优势。 使用图像分类下游任务,我们展示了我们的模型在多个数据集和场景中优于两种自监督基线。 至关重要的是,这包括只有少量标记数据可用的情况。 经验表明,孪生组件影响更大,但去噪自动编码器仍然是提高性能所必需的。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.