统计学 > 机器学习
标题: 分布平滑与虚拟对抗训练
标题: Distributional Smoothing with Virtual Adversarial Training
摘要: 模型预测的泛化性能在很大程度上取决于我们推断模型的家族,大多数成功的模型家族都具有某种平滑性,因为大多数现实世界现象具有相似的平滑性。 我们想提出局部分布平滑性(LDS),这是统计模型的一种新的平滑性概念,它符合我们对“平滑分布”的直观概念。 模型在某一点的LDS定义为基于KL散度的模型分布对局部扰动的鲁棒性。 遵循对抗训练的工作,我们将基于LDS的正则化称为虚拟对抗训练(VAT)。 VAT类似于对抗训练,但其不同之处在于它仅从模型分布中确定对抗方向,而不使用标签信息。 因此,该技术甚至适用于半监督学习。 当我们将该技术应用于排列不变MNIST数据集的分类任务时,它超越了所有不使用生成模型和预训练的训练方法。 即使与使用高度先进生成模型的最先进方法相比,VAT也表现良好。
提交历史
来自: Takeru Miyato [查看电子邮件][v1] 星期四, 2015 年 7 月 2 日 18:01:23 UTC (698 KB)
[v2] 星期一, 2015 年 8 月 3 日 19:59:36 UTC (6,902 KB)
[v3] 星期四, 2015 年 8 月 13 日 09:19:40 UTC (6,902 KB)
[v4] 星期五, 2015 年 9 月 25 日 12:20:05 UTC (6,902 KB)
[v5] 星期四, 2015 年 11 月 19 日 18:47:51 UTC (1,305 KB)
[v6] 星期三, 2015 年 11 月 25 日 13:31:07 UTC (1,305 KB)
[v7] 星期六, 2016 年 1 月 9 日 23:53:05 UTC (1,243 KB)
[v8] 星期一, 2016 年 2 月 29 日 15:39:55 UTC (1,243 KB)
[v9] 星期六, 2016 年 6 月 11 日 18:22:33 UTC (1,243 KB)
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.