计算机科学 > 机器学习
[提交于 2025年7月28日
]
标题: 对角加权广义矩方法在高斯混合建模中的估计
标题: Diagonally-Weighted Generalized Method of Moments Estimation for Gaussian Mixture Modeling
摘要: 自皮尔逊[《皇家学会哲学汇刊》A, 185 (1894), 第71-110页]首次将矩方法(MM)应用于将数据建模为一维高斯混合以来,基于矩的估计方法已经大量出现。在这些方法中,广义矩方法(GMM)通过适当加权矩来提高MM的统计效率。然而,MM和GMM的计算复杂度和存储复杂度随着维度的增加呈指数增长,这使得这些方法在高维数据或需要更高阶矩的情况下变得不切实际。这种计算瓶颈在GMM中更为严重,因为它还需要估计一个大的权重矩阵。为了克服这些瓶颈,我们提出了对角加权GMM(DGMM),它在统计效率、计算复杂度和数值稳定性之间取得了平衡。我们将DGMM应用于研究弱分离异方差低秩高斯混合的参数估计问题,并设计了一种计算高效且数值稳定的算法,该算法无需显式计算或存储矩张量即可获得DGMM估计量。我们实现了所提出的算法,并通过实验验证了DGMM的优势:在数值研究中,DGMM在要求显著更短运行时间的同时获得了更小的估计误差。代码和数据将在发表后在https://github.com/liu-lzhang/dgmm上提供。
当前浏览上下文:
math
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.