计算机科学 > 人工智能
[提交于 2024年12月21日
]
标题: 知识作为遍历性的打破
标题: Knowledge as a Breaking of Ergodicity
摘要: 我们构建了一个热力学势,可以指导定义在一组二值自由度上的生成模型的训练。 我们主张,在描述简化以使生成模型在计算上易于管理时,该势会发展出多个极小值。 这与生成模型本身的自由能真正出现多个极小值相呼应。 通常情况下,使用 N 个二值自由度的训练样本数量远低于完整相空间大小 2^N。 我们认为,未表示的构型应被视为由一个高温相组成,与构成训练集的构型之间存在广泛的能量间隙。 因此,训练相当于对自由能曲面进行采样,该曲面以一组不同的束缚态库的形式呈现,每个束缚态都破坏了遍历性。 这种遍历性破坏防止逃逸到包含高温相的状态的近连续区域;因此,它是正常功能所必需的。 然而,它可能会有局限训练集中表示不足的模式访问的副作用。 同时,库内的遍历性破坏使学习和检索变得复杂。 作为一种补救措施,可以同时采用多个生成模型——每个自由能极小值对应一个模型。
当前浏览上下文:
cs.AI
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.