Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2504.05661v1

帮助 | 高级搜索

数学 > 统计理论

arXiv:2504.05661v1 (math)
[提交于 2025年4月8日 ]

标题: 在线伯恩斯坦-冯·米塞斯定理

标题: Online Bernstein-von Mises theorem

Authors:Jeyong Lee, Junhyeok Choi, Minwoo Chae
摘要: 在线学习是一种推断范式,在这种范式中,参数会根据顺序可用的数据逐步更新,与之相对的是批量学习,后者一次性处理整个数据集。 本文假设完整数据集中的小批量数据按顺序变得可用。 贝叶斯框架在每次观察到一个小批量后更新关于未知参数的信念,这种框架天然适用于在线学习。 在每个步骤中,我们使用当前先验和新观测值来更新后验分布,更新后的后验分布则作为下一个步骤的先验分布。 然而,除非模型和先验是共轭的,否则这种递归贝叶斯更新很少具有计算可行性。 当模型是正则的,更新后的后验可以通过正态分布近似,这由伯恩斯坦-冯·米塞斯定理证明合理。 我们在每个步骤采用变分近似,并研究通过这一序列过程获得的最终后验的频率性质。 在温和的假设下,我们证明,一旦小批量大小超过一个依赖于参数维度的阈值,累积的近似误差就会变得可以忽略不计。 因此,逐步更新的后验渐进地与完整的后验不可区分。
摘要: Online learning is an inferential paradigm in which parameters are updated incrementally from sequentially available data, in contrast to batch learning, where the entire dataset is processed at once. In this paper, we assume that mini-batches from the full dataset become available sequentially. The Bayesian framework, which updates beliefs about unknown parameters after observing each mini-batch, is naturally suited for online learning. At each step, we update the posterior distribution using the current prior and new observations, with the updated posterior serving as the prior for the next step. However, this recursive Bayesian updating is rarely computationally tractable unless the model and prior are conjugate. When the model is regular, the updated posterior can be approximated by a normal distribution, as justified by the Bernstein-von Mises theorem. We adopt a variational approximation at each step and investigate the frequentist properties of the final posterior obtained through this sequential procedure. Under mild assumptions, we show that the accumulated approximation error becomes negligible once the mini-batch size exceeds a threshold depending on the parameter dimension. As a result, the sequentially updated posterior is asymptotically indistinguishable from the full posterior.
评论: 107页,1幅图
主题: 统计理论 (math.ST)
MSC 类: 62F12, 62F15, 62E17, 62L12
ACM 类: G.3
引用方式: arXiv:2504.05661 [math.ST]
  (或者 arXiv:2504.05661v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.05661
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jeyong Lee [查看电子邮件]
[v1] 星期二, 2025 年 4 月 8 日 04:22:56 UTC (431 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
math
stat
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号