Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:1402.0929v3

帮助 | 高级搜索

统计学 > 机器学习

arXiv:1402.0929v3 (stat)
[提交于 2014年2月5日 (v1) ,最后修订 2014年6月11日 (此版本, v3)]

标题: 输入扭曲用于非平稳函数的贝叶斯优化

标题: Input Warping for Bayesian Optimization of Non-stationary Functions

Authors:Jasper Snoek, Kevin Swersky, Richard S. Zemel, Ryan P. Adams
摘要: 贝叶斯优化已被证明是一种非常有效的未知、昂贵且多模态函数全局优化方法。准确地对函数分布建模的能力对于贝叶斯优化的有效性至关重要。尽管高斯过程提供了可以高效查询的灵活函数先验,但仍存在各种难以建模的函数类。其中最常见的是非平稳函数类。机器学习算法超参数的优化是一个参数通常需要预先手动转换的问题领域,例如通过在“对数空间”中优化来减轻空间变化长度尺度的影响。我们开发了一种使用Beta累积分布函数自动学习输入空间广泛族的一一变换或扭曲的方法。我们进一步将扭曲框架扩展到多任务贝叶斯优化,以便多个任务可以被扭曲到一个联合平稳的空间。在一组具有挑战性的基准优化任务上,我们观察到加入扭曲大大改进了当前最先进的方法,更快且更可靠地产生更好的结果。
摘要: Bayesian optimization has proven to be a highly effective methodology for the global optimization of unknown, expensive and multimodal functions. The ability to accurately model distributions over functions is critical to the effectiveness of Bayesian optimization. Although Gaussian processes provide a flexible prior over functions which can be queried efficiently, there are various classes of functions that remain difficult to model. One of the most frequently occurring of these is the class of non-stationary functions. The optimization of the hyperparameters of machine learning algorithms is a problem domain in which parameters are often manually transformed a priori, for example by optimizing in "log-space," to mitigate the effects of spatially-varying length scale. We develop a methodology for automatically learning a wide family of bijective transformations or warpings of the input space using the Beta cumulative distribution function. We further extend the warping framework to multi-task Bayesian optimization so that multiple tasks can be warped into a jointly stationary space. On a set of challenging benchmark optimization tasks, we observe that the inclusion of warping greatly improves on the state-of-the-art, producing better results faster and more reliably.
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG)
引用方式: arXiv:1402.0929 [stat.ML]
  (或者 arXiv:1402.0929v3 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.1402.0929
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jasper Snoek [查看电子邮件]
[v1] 星期三, 2014 年 2 月 5 日 03:55:39 UTC (955 KB)
[v2] 星期四, 2014 年 2 月 20 日 22:00:38 UTC (955 KB)
[v3] 星期三, 2014 年 6 月 11 日 20:32:11 UTC (956 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2014-02
切换浏览方式为:
cs
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号