统计学 > 机器学习
[提交于 2025年7月9日
]
标题: 贝叶斯双降度
标题: Bayesian Double Descent
摘要: 双下降是过参数化统计模型的一种现象。 我们的目标是从贝叶斯的角度来看待双下降。 过参数化模型,如深度神经网络,在其风险特征中具有有趣的再下降特性。 这是机器学习中的一个近期现象,并已成为许多研究的主题。 随着模型复杂性的增加,存在一个对应于传统偏差-方差权衡的U形区域,但随后当参数数量等于观测数量且模型变为插值模型时,风险可能变为无限大,然后在过参数化区域中再次下降——这就是双下降效应。 我们表明,这有一个自然的贝叶斯解释。 此外,我们表明它并不与贝叶斯模型所具有的传统奥卡姆剃刀原理相冲突,因为在可能的情况下,贝叶斯模型倾向于选择更简单的模型。 我们通过神经网络中的贝叶斯模型选择示例来说明该方法。 最后,我们对未来的研究方向进行总结。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.