Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:2302.10840v2

帮助 | 高级搜索

统计学 > 机器学习

arXiv:2302.10840v2 (stat)
[提交于 2023年2月21日 (v1) ,最后修订 2024年5月9日 (此版本, v2)]

标题: 机器学习模型参数的有效推断

标题: Valid Inference for Machine Learning Model Parameters

Authors:Neil Dey, Jonathan P. Williams
摘要: 机器学习模型的参数通常是通过在一组训练数据上最小化损失函数来学习的。 然而,这可能会带来过拟合的风险;为了使模型能够良好泛化,我们能够找到整个总体上的最优参数非常重要——而不仅仅是给定的训练样本上的最优参数。 在本文中,我们构建了这种机器学习模型最优参数的有效置信集,这些置信集仅使用训练数据即可生成,而无需了解总体。 然后我们表明,研究这个置信集的分布可以使我们为参数空间中的任意区域赋予一种置信度,并且我们证明了可以使用自助法技术很好地近似这种分布。
摘要: The parameters of a machine learning model are typically learned by minimizing a loss function on a set of training data. However, this can come with the risk of overtraining; in order for the model to generalize well, it is of great importance that we are able to find the optimal parameter for the model on the entire population -- not only on the given training sample. In this paper, we construct valid confidence sets for this optimal parameter of a machine learning model, which can be generated using only the training data without any knowledge of the population. We then show that studying the distribution of this confidence set allows us to assign a notion of confidence to arbitrary regions of the parameter space, and we demonstrate that this distribution can be well-approximated using bootstrapping techniques.
评论: 35页,6图
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG); 统计理论 (math.ST)
引用方式: arXiv:2302.10840 [stat.ML]
  (或者 arXiv:2302.10840v2 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.2302.10840
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Neil Dey [查看电子邮件]
[v1] 星期二, 2023 年 2 月 21 日 17:46:08 UTC (119 KB)
[v2] 星期四, 2024 年 5 月 9 日 20:30:32 UTC (128 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2023-02
切换浏览方式为:
cs
cs.LG
math
math.ST
stat
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号