计算机科学 > 机器学习
[提交于 2020年12月14日
]
标题: 多项式近零集的小覆盖和潜在变量模型的学习
标题: Small Covers for Near-Zero Sets of Polynomials and Learning Latent Variable Models
摘要: 设$V$为任意一个多元次数为$d$的齐次多项式的向量空间,其余维数至多为$k$,并且$S$为$V$ {\em 接近} 中所有多项式都为零的点的集合。 我们建立了在$\ell_2$-范数下,$\epsilon$-覆盖对于$S$的定性最优上界。 大致来说,我们证明存在一个$\epsilon$-覆盖对于$S$,其基数为$M = (k/\epsilon)^{O_d(k^{1/d})}$。 我们的结果是构造性的,产生了一个计算这样的$\epsilon$-cover 的算法,该算法在时间$\mathrm{poly}(M)$内运行。 基于我们的结构结果,我们获得了几个基本的高维概率模型在隐藏变量情况下的显著改进的学习算法。 这些包括球面高斯的$k$混合模型的密度和参数估计(具有已知的共同协方差),在高斯分布下具有$k$个隐藏单元的一层隐藏层 ReLU 网络的 PAC 学习,线性回归的$k$混合模型的密度和参数估计(具有高斯协变量),以及超平面的$k$混合模型的参数估计。 我们的算法在参数$k$下的运行时间为{\em 拟多项式}。 这些问题的先前算法的运行时间在$k^{\Omega(1)}$上是指数级的。 从高层次来看,我们针对所有这些学习问题的算法工作方式如下:通过计算隐藏参数的低阶矩,我们能够找到一个多项式向量空间,在未知参数上几乎消失。 我们的结构结果使我们能够为隐藏参数的集合计算一个准多项式大小的覆盖,我们在学习算法中利用了这一点。
当前浏览上下文:
cs.LG
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.