Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2505.20022v1

帮助 | 高级搜索

数学 > 统计理论

arXiv:2505.20022v1 (math)
[提交于 2025年5月26日 ]

标题: 带有预测特征输入的核岭回归及其在因子非参数回归中的应用

标题: Kernel Ridge Regression with Predicted Feature Inputs and Applications to Factor-Based Nonparametric Regression

Authors:Xin Bing, Xin He, Chao Wang
摘要: 核方法,特别是核岭回归(KRR),是一种历经时间考验的强大非参数回归技术,以其丰富的容量、分析的简洁性以及计算的可行性而闻名。 对其预测性能的分析在过去二十多年间持续受到关注。 然而,在许多现代回归问题中,KRR所使用的特征输入无法直接观测,而是必须从其他测量值推断出来,KRR的理论基础仍然很大程度上未被探索。 本文介绍了一种针对使用预测特征输入的KRR的新分析方法。 我们的框架不仅对于处理预测特征输入至关重要,使我们能够在不对预测特征误差做任何假设的情况下得出风险界,而且通过允许任意模型误设,在平方损失下需要更弱的条件(特别是允许响应变量和函数类均无界),并且足够灵活以适应其他凸损失函数,从而加强了经典设定下的现有分析。 我们将一般理论应用于基于因子的非参数回归模型,并在使用主成分分析预测特征输入时建立了KRR的渐近最优性。 我们的理论发现通过模拟研究得到了进一步验证。
摘要: Kernel methods, particularly kernel ridge regression (KRR), are time-proven, powerful nonparametric regression techniques known for their rich capacity, analytical simplicity, and computational tractability. The analysis of their predictive performance has received continuous attention for more than two decades. However, in many modern regression problems where the feature inputs used in KRR cannot be directly observed and must instead be inferred from other measurements, the theoretical foundations of KRR remain largely unexplored. In this paper, we introduce a novel approach for analyzing KRR with predicted feature inputs. Our framework is not only essential for handling predicted feature inputs, enabling us to derive risk bounds without imposing any assumptions on the error of the predicted features, but also strengthens existing analyses in the classical setting by allowing arbitrary model misspecification, requiring weaker conditions under the squared loss, particularly allowing both an unbounded response and an unbounded function class, and being flexible enough to accommodate other convex loss functions. We apply our general theory to factor-based nonparametric regression models and establish the minimax optimality of KRR when the feature inputs are predicted using principal component analysis. Our theoretical findings are further corroborated by simulation studies.
主题: 统计理论 (math.ST)
引用方式: arXiv:2505.20022 [math.ST]
  (或者 arXiv:2505.20022v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2505.20022
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Chao Wang [查看电子邮件]
[v1] 星期一, 2025 年 5 月 26 日 14:10:03 UTC (147 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-05
切换浏览方式为:
math
stat
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号