数学 > 统计理论
[提交于 2025年4月8日
]
标题: 在线伯恩斯坦-冯·米塞斯定理
标题: Online Bernstein-von Mises theorem
摘要: 在线学习是一种推断范式,在这种范式中,参数会根据顺序可用的数据逐步更新,与之相对的是批量学习,后者一次性处理整个数据集。 本文假设完整数据集中的小批量数据按顺序变得可用。 贝叶斯框架在每次观察到一个小批量后更新关于未知参数的信念,这种框架天然适用于在线学习。 在每个步骤中,我们使用当前先验和新观测值来更新后验分布,更新后的后验分布则作为下一个步骤的先验分布。 然而,除非模型和先验是共轭的,否则这种递归贝叶斯更新很少具有计算可行性。 当模型是正则的,更新后的后验可以通过正态分布近似,这由伯恩斯坦-冯·米塞斯定理证明合理。 我们在每个步骤采用变分近似,并研究通过这一序列过程获得的最终后验的频率性质。 在温和的假设下,我们证明,一旦小批量大小超过一个依赖于参数维度的阈值,累积的近似误差就会变得可以忽略不计。 因此,逐步更新的后验渐进地与完整的后验不可区分。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.