统计学 > 机器学习
标题: 带有虚拟对抗训练的分布平滑
标题: Distributional Smoothing with Virtual Adversarial Training
摘要: 我们提出局部分布平滑性(LDS),这是统计模型的一种新的平滑性概念,可以用作正则化项,以促进模型分布的平滑性。 我们将基于LDS的正则化称为虚拟对抗训练(VAT)。 在输入数据点处的模型的LDS定义为模型分布对围绕该数据点的局部扰动的基于KL散度的鲁棒性。 VAT类似于对抗训练,但其不同之处在于它仅从模型分布中确定对抗方向,而不使用标签信息,使其适用于半监督学习。 VAT的计算成本相对较低。 对于神经网络,LDS的近似梯度可以通过不超过三对前向和反向传播来计算。 当我们将我们的技术应用于MNIST数据集的监督和半监督学习时,它优于除当前最先进的方法以外的所有训练方法,该方法基于高度先进的生成模型。 我们还将我们的方法应用于SVHN和NORB,并确认了我们的方法在这些数据集上应用的当前最先进的半监督方法中的优越性能。
提交历史
来自: Takeru Miyato [查看电子邮件][v1] 星期四, 2015 年 7 月 2 日 18:01:23 UTC (698 KB)
[v2] 星期一, 2015 年 8 月 3 日 19:59:36 UTC (6,902 KB)
[v3] 星期四, 2015 年 8 月 13 日 09:19:40 UTC (6,902 KB)
[v4] 星期五, 2015 年 9 月 25 日 12:20:05 UTC (6,902 KB)
[v5] 星期四, 2015 年 11 月 19 日 18:47:51 UTC (1,305 KB)
[v6] 星期三, 2015 年 11 月 25 日 13:31:07 UTC (1,305 KB)
[v7] 星期六, 2016 年 1 月 9 日 23:53:05 UTC (1,243 KB)
[v8] 星期一, 2016 年 2 月 29 日 15:39:55 UTC (1,243 KB)
[v9] 星期六, 2016 年 6 月 11 日 18:22:33 UTC (1,243 KB)
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.