统计学 > 机器学习
[提交于 2015年7月2日
(v1)
,最后修订 2016年6月11日 (此版本, v9)]
标题: 使用虚拟对抗训练的分布平滑
标题: Distributional Smoothing with Virtual Adversarial Training
摘要: 我们提出了局部分布光滑性(LDS),这是一种用于统计模型的新光滑性概念,可以用作正则化项以促进模型分布的光滑性。 我们将基于LDS的正则化命名为虚拟对抗训练(VAT)。 模型在输入数据点处的LDS被定义为其分布针对数据点周围局部扰动的基于KL散度的鲁棒性。 VAT类似于对抗性训练,但区别在于它仅从模型分布本身确定对抗方向而不使用标签信息,使其适用于半监督学习。 VAT的计算成本相对较低。 对于神经网络,可以通过不超过三对前向和反向传播来计算LDS的近似梯度。 当我们将其技术应用于MNIST数据集的有监督和半监督学习时,它在所有训练方法中表现最佳,仅次于当前最先进的基于高度先进的生成模型的方法。 我们还将其方法应用于SVHN和NORB,并确认了我们方法在这两个数据集上优于当前最先进的半监督方法的表现。
提交历史
来自: Takeru Miyato [查看电子邮件][v1] 星期四, 2015 年 7 月 2 日 18:01:23 UTC (698 KB)
[v2] 星期一, 2015 年 8 月 3 日 19:59:36 UTC (6,902 KB)
[v3] 星期四, 2015 年 8 月 13 日 09:19:40 UTC (6,902 KB)
[v4] 星期五, 2015 年 9 月 25 日 12:20:05 UTC (6,902 KB)
[v5] 星期四, 2015 年 11 月 19 日 18:47:51 UTC (1,305 KB)
[v6] 星期三, 2015 年 11 月 25 日 13:31:07 UTC (1,305 KB)
[v7] 星期六, 2016 年 1 月 9 日 23:53:05 UTC (1,243 KB)
[v8] 星期一, 2016 年 2 月 29 日 15:39:55 UTC (1,243 KB)
[v9] 星期六, 2016 年 6 月 11 日 18:22:33 UTC (1,243 KB)
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.