计算机科学 > 机器学习
[提交于 2025年3月27日
(v1)
,最后修订 2025年10月22日 (此版本, v2)]
标题: 探索RBMs的能量景观:关于玻色子、分层学习和对称性破缺的倒空间见解
标题: Exploring the Energy Landscape of RBMs: Reciprocal Space Insights into Bosons, Hierarchical Learning and Symmetry Breaking
摘要: 深度生成模型由于其能够学习并从复杂分布中采样的能力而变得无处不在。 尽管存在各种框架,这些模型之间的关系仍然 largely 未被探索,这一差距阻碍了人工智能学习统一理论的发展。 我们解决了两个核心挑战:阐明不同深度生成模型之间的联系,并加深对它们学习机制的理解。 我们专注于受限玻尔兹曼机(RBMs),它以对离散分布的通用逼近能力而闻名。 通过引入倒数空间公式,我们揭示了 RBMs、扩散过程和耦合玻色子之间的联系。 我们表明,在初始化时,RBM 处于一个鞍点,其中局部曲率由奇异值决定,其分布遵循 Marcenko-Pastur 定律并表现出旋转对称性。 在训练过程中,由于分层学习,旋转对称性被打破,不同的自由度逐步捕捉多层次的抽象特征。 这导致能量景观中的对称性破缺,类似于朗道理论。 能量景观中的这种对称性破缺由奇异值和权重矩阵特征向量矩阵表征。 我们在平均场近似下推导了相应的自由能。 我们表明,在无限大小 RBM 的极限情况下,倒数变量是高斯分布的。 我们的发现表明,在这种情况下,某些模式的扩散过程将不会收敛到玻尔兹曼分布。 为了说明我们的结果,我们使用 MNIST 数据集训练了具有不同隐藏层大小的 RBM 副本。 我们的发现弥合了不同生成框架之间的差距,并且也揭示了生成模型中学习过程的机制。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.