统计学 > 机器学习
[提交于 2014年2月5日
]
标题: 学习有序表示的嵌套丢弃法
标题: Learning Ordered Representations with Nested Dropout
摘要: 本文研究了数据的有序表示形式,其中不同维度具有不同程度的重要性。为了学习这些表示形式,我们引入了一种称为嵌套丢弃(nested dropout)的方法,这是一种从神经网络中随机移除一致且嵌套的隐藏单元集合的过程。首先,我们在半线性自编码器的简单情况下呈现了一系列理论结果。我们严格证明了应用嵌套丢弃可以强制隐藏单元的可辨识性,这与主成分分析(PCA)形成了精确的等价关系。然后,我们将该算法扩展到深度模型,并展示了有序表示在多种应用中的相关性。具体而言,我们利用学到的代码的有序特性构建基于哈希的数据结构,允许非常快速的检索,检索时间与数据库大小成对数关系且不受表示维度的影响。这使得数百倍于目前可行长度的代码成为可能,同时避免了短码导致的质量下降问题,检索速度仍能与现有方法竞争。此外,我们还表明,有序表示是一种有前景的方式,可用于高效在线数据重建的自适应压缩学习。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.