统计学 > 机器学习
[提交于 2025年7月2日
]
标题: 具有分段常数特征值轮廓的简约高斯混合模型
标题: Parsimonious Gaussian mixture models with piecewise-constant eigenvalue profiles
摘要: 高斯混合模型(GMMs)在统计学习中无处不在,尤其是在无监督问题中。 虽然完整的GMMs在高维空间中其协方差矩阵存在过度参数化的问题,而球形GMMs(具有各向同性协方差矩阵)显然缺乏灵活性,无法拟合某些各向异性分布。 连接这两个极端,我们引入了一种新的简洁GMM家族,其协方差特征值图是分段常数的。 这些模型扩展了多种低秩模型,如著名的概率主成分分析器混合模型(MPPCA),通过允许任何可能的特征值重数序列。 如果后者是预定义的,那么我们可以自然地推导出一个期望最大化(EM)算法来学习混合参数。 否则,为了解决联合学习混合参数和超参数这一众所周知的挑战性问题,我们提出了一种分组件惩罚的EM算法,其单调性得到了证明。 我们在各种无监督实验中展示了我们的模型所取得的优越似然-简洁性权衡:密度拟合、聚类和单图像去噪。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.