Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:0803.1718v1

帮助 | 高级搜索

数学 > 统计理论

arXiv:0803.1718v1 (math)
[提交于 2008年3月12日 ]

标题: 逼近与贪婪算法的学习

标题: Approximation and learning by greedy algorithms

Authors:Andrew R. Barron, Albert Cohen, Wolfgang Dahmen, Ronald A. DeVore
摘要: 我们研究了利用贪婪算法从希尔伯特空间$\mathcal{H}$中逼近给定元素$f$的问题,并探讨了这些方法在统计学习理论回归问题中的应用。 我们改进了关于正交贪婪算法、松弛贪婪算法以及前向逐步投影算法收敛速度的现有理论。 对于所有这些算法,我们证明了针对多种函数类别的收敛结果,而不仅仅是与字典凸包相关的那些函数类。 接着,我们展示了这些收敛速度的界如何导致贪婪算法在学习性能方面的新理论。 特别是,我们基于 IEEE Trans. Inform. Theory 42 (1996) 2118--2132 中的结果,构建了基于贪婪逼近的学习算法,这些算法具有普遍一致性,并对大量函数类提供可证明的收敛速度。 在学习背景下使用贪婪算法非常有吸引力,因为它与使用通用字典的标准模型选择相比,大大减少了计算负担。
摘要: We consider the problem of approximating a given element $f$ from a Hilbert space $\mathcal{H}$ by means of greedy algorithms and the application of such procedures to the regression problem in statistical learning theory. We improve on the existing theory of convergence rates for both the orthogonal greedy algorithm and the relaxed greedy algorithm, as well as for the forward stepwise projection algorithm. For all these algorithms, we prove convergence results for a variety of function classes and not simply those that are related to the convex hull of the dictionary. We then show how these bounds for convergence rates lead to a new theory for the performance of greedy algorithms in learning. In particular, we build upon the results in [IEEE Trans. Inform. Theory 42 (1996) 2118--2132] to construct learning algorithms based on greedy approximations which are universally consistent and provide provable convergence rates for large classes of functions. The use of greedy algorithms in the context of learning is very appealing since it greatly reduces the computational burden when compared with standard model selection using general dictionaries.
评论: 发表于http://dx.doi.org/10.1214/009053607000000631的《统计学年鉴》(http://www.imstat.org/aos/),由数学统计研究所(http://www.imstat.org)出版
主题: 统计理论 (math.ST)
MSC 类: 62G07, 41A46, 41A63, 46N30 (Primary)
引用方式: arXiv:0803.1718 [math.ST]
  (或者 arXiv:0803.1718v1 [math.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.0803.1718
通过 DataCite 发表的 arXiv DOI
期刊参考: IMS-AOS-AOS0304
相关 DOI: https://doi.org/10.1214/009053607000000631
链接到相关资源的 DOI

提交历史

来自: Ronald A. DeVore [查看电子邮件]
[v1] 星期三, 2008 年 3 月 12 日 08:12:38 UTC (104 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
math.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2008-03
切换浏览方式为:
math
stat
stat.TH

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号