Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.20459

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.20459 (cs)
[提交于 2025年7月28日 ]

标题: 对角加权广义矩方法在高斯混合建模中的估计

标题: Diagonally-Weighted Generalized Method of Moments Estimation for Gaussian Mixture Modeling

Authors:Liu Zhang, Oscar Mickelin, Sheng Xu, Amit Singer
摘要: 自皮尔逊[《皇家学会哲学汇刊》A, 185 (1894), 第71-110页]首次将矩方法(MM)应用于将数据建模为一维高斯混合以来,基于矩的估计方法已经大量出现。在这些方法中,广义矩方法(GMM)通过适当加权矩来提高MM的统计效率。然而,MM和GMM的计算复杂度和存储复杂度随着维度的增加呈指数增长,这使得这些方法在高维数据或需要更高阶矩的情况下变得不切实际。这种计算瓶颈在GMM中更为严重,因为它还需要估计一个大的权重矩阵。为了克服这些瓶颈,我们提出了对角加权GMM(DGMM),它在统计效率、计算复杂度和数值稳定性之间取得了平衡。我们将DGMM应用于研究弱分离异方差低秩高斯混合的参数估计问题,并设计了一种计算高效且数值稳定的算法,该算法无需显式计算或存储矩张量即可获得DGMM估计量。我们实现了所提出的算法,并通过实验验证了DGMM的优势:在数值研究中,DGMM在要求显著更短运行时间的同时获得了更小的估计误差。代码和数据将在发表后在https://github.com/liu-lzhang/dgmm上提供。
摘要: Since Pearson [Philosophical Transactions of the Royal Society of London. A, 185 (1894), pp. 71-110] first applied the method of moments (MM) for modeling data as a mixture of one-dimensional Gaussians, moment-based estimation methods have proliferated. Among these methods, the generalized method of moments (GMM) improves the statistical efficiency of MM by weighting the moments appropriately. However, the computational complexity and storage complexity of MM and GMM grow exponentially with the dimension, making these methods impractical for high-dimensional data or when higher-order moments are required. Such computational bottlenecks are more severe in GMM since it additionally requires estimating a large weighting matrix. To overcome these bottlenecks, we propose the diagonally-weighted GMM (DGMM), which achieves a balance among statistical efficiency, computational complexity, and numerical stability. We apply DGMM to study the parameter estimation problem for weakly separated heteroscedastic low-rank Gaussian mixtures and design a computationally efficient and numerically stable algorithm that obtains the DGMM estimator without explicitly computing or storing the moment tensors. We implement the proposed algorithm and empirically validate the advantages of DGMM: in numerical studies, DGMM attains smaller estimation errors while requiring substantially shorter runtime than MM and GMM. The code and data will be available upon publication at https://github.com/liu-lzhang/dgmm.
主题: 机器学习 (cs.LG) ; 数值分析 (math.NA); 统计理论 (math.ST); 方法论 (stat.ME); 机器学习 (stat.ML)
MSC 类: 62F12, 62H30, 15A69, 65Y20
引用方式: arXiv:2507.20459 [cs.LG]
  (或者 arXiv:2507.20459v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.20459
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Liu Zhang [查看电子邮件]
[v1] 星期一, 2025 年 7 月 28 日 01:24:55 UTC (3,523 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.LG
cs.NA
math.NA
math.ST
stat
stat.ME
stat.ML
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号