计算机科学 > 机器学习
[提交于 2025年2月24日
]
标题: 可证明的模型并行分布式主成分分析与并行去噪
标题: Provable Model-Parallel Distributed Principal Component Analysis with Parallel Deflation
摘要: 我们研究了一个分布式主成分分析(PCA)框架,其中每个工作者针对一个不同的特征向量,并通过从被认为“更优”的同伴提供的中间解进行更新来优化其解决方案。 从集中式特征值问题中的降秩方法中获得启发,我们的方法打破了降秩步骤中的顺序依赖性,允许工作者异步更新,同时仅产生较小的通信成本。 据我们所知,文献中存在一个空白——即这种分布式、动态的工作者之间相互作用的理论基础——仍未被解决。 本文提供了一个理论分析,解释了为什么、如何以及在什么情况下这些中间的分层更新能够在分布式环境中实现实际且可证明的收敛。 尽管这是一项理论工作,但我们的原型实现表明,这种分布式PCA算法能够有效且可扩展地收敛:通过实验,我们提出的框架在性能上与EigenGame-$\mu$相当,后者是当前最先进的模型并行PCA求解器。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.