Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2412.16411v1

帮助 | 高级搜索

计算机科学 > 人工智能

arXiv:2412.16411v1 (cs)
[提交于 2024年12月21日 ]

标题: 知识作为遍历性的打破

标题: Knowledge as a Breaking of Ergodicity

Authors:Yang He, Vassiliy Lubchenko
摘要: 我们构建了一个热力学势,可以指导定义在一组二值自由度上的生成模型的训练。 我们主张,在描述简化以使生成模型在计算上易于管理时,该势会发展出多个极小值。 这与生成模型本身的自由能真正出现多个极小值相呼应。 通常情况下,使用 N 个二值自由度的训练样本数量远低于完整相空间大小 2^N。 我们认为,未表示的构型应被视为由一个高温相组成,与构成训练集的构型之间存在广泛的能量间隙。 因此,训练相当于对自由能曲面进行采样,该曲面以一组不同的束缚态库的形式呈现,每个束缚态都破坏了遍历性。 这种遍历性破坏防止逃逸到包含高温相的状态的近连续区域;因此,它是正常功能所必需的。 然而,它可能会有局限训练集中表示不足的模式访问的副作用。 同时,库内的遍历性破坏使学习和检索变得复杂。 作为一种补救措施,可以同时采用多个生成模型——每个自由能极小值对应一个模型。
摘要: We construct a thermodynamic potential that can guide training of a generative model defined on a set of binary degrees of freedom. We argue that upon reduction in description, so as to make the generative model computationally-manageable, the potential develops multiple minima. This is mirrored by the emergence of multiple minima in the free energy proper of the generative model itself. The variety of training samples that employ N binary degrees of freedom is ordinarily much lower than the size 2^N of the full phase space. The non-represented configurations, we argue, should be thought of as comprising a high-temperature phase separated by an extensive energy gap from the configurations composing the training set. Thus, training amounts to sampling a free energy surface in the form of a library of distinct bound states, each of which breaks ergodicity. The ergodicity breaking prevents escape into the near continuum of states comprising the high-temperature phase; thus it is necessary for proper functionality. It may however have the side effect of limiting access to patterns that were underrepresented in the training set. At the same time, the ergodicity breaking within the library complicates both learning and retrieval. As a remedy, one may concurrently employ multiple generative models -- up to one model per free energy minimum.
评论: 51页,12幅图,已被《神经计算》接受
主题: 人工智能 (cs.AI) ; 无序系统与神经网络 (cond-mat.dis-nn); 计算复杂性 (cs.CC); 机器学习 (stat.ML)
MSC 类: I.2.4, F.2.0
引用方式: arXiv:2412.16411 [cs.AI]
  (或者 arXiv:2412.16411v1 [cs.AI] 对于此版本)
  https://doi.org/10.48550/arXiv.2412.16411
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yang He [查看电子邮件]
[v1] 星期六, 2024 年 12 月 21 日 00:30:07 UTC (912 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.AI
< 上一篇   |   下一篇 >
新的 | 最近的 | 2024-12
切换浏览方式为:
cond-mat
cond-mat.dis-nn
cs
cs.CC
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号