Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > stat > arXiv:1402.0929v1

帮助 | 高级搜索

统计学 > 机器学习

arXiv:1402.0929v1 (stat)
[提交于 2014年2月5日 (此版本) , 最新版本 2014年6月11日 (v3) ]

标题: 非平稳函数贝叶斯优化的输入扭曲

标题: Input Warping for Bayesian Optimization of Non-stationary Functions

Authors:Jasper Snoek, Kevin Swersky, Richard S. Zemel, Ryan P. Adams
摘要: 贝叶斯优化已被证明是一种非常有效的未知、昂贵且多峰函数全局优化方法。 准确建模函数上的分布的能力对于贝叶斯优化的有效性至关重要。 尽管高斯过程提供了灵活的函数先验,并且可以高效查询,但仍然存在一些难以建模的函数类。 其中最常见的一类是非平稳函数。 机器学习算法超参数的优化问题领域中,通常会手动在先验阶段对参数进行变换,例如通过在“对数空间”中优化来减轻空间变化长度尺度的影响。 我们开发了一种使用Beta累积分布函数自动学习输入空间广泛族双射变换或扭曲的方法。 我们进一步将扭曲框架扩展到多任务贝叶斯优化,使多个任务可以被扭曲到联合平稳空间。 在一组具有挑战性的基准优化任务中,我们观察到加入扭曲极大地改进了最先进的方法,更快、更可靠地产生了更好的结果。
摘要: Bayesian optimization has proven to be a highly effective methodology for the global optimization of unknown, expensive and multimodal functions. The ability to accurately model distributions over functions is critical to the effectiveness of Bayesian optimization. Although Gaussian processes provide a flexible prior over functions which can be queried efficiently, there are various classes of functions that remain difficult to model. One of the most frequently occurring of these is the class of non-stationary functions. The optimization of the hyperparameters of machine learning algorithms is a problem domain in which parameters are often manually transformed a priori, for example by optimizing in "log-space," to mitigate the effects of spatially-varying length scale. We develop a methodology for automatically learning a wide family of bijective transformations or warpings of the input space using the Beta cumulative distribution function. We further extend the warping framework to multi-task Bayesian optimization so that multiple tasks can be warped into a jointly stationary space. On a set of challenging benchmark optimization tasks, we observe that the inclusion of warping greatly improves on the state-of-the-art, producing better results faster and more reliably.
主题: 机器学习 (stat.ML) ; 机器学习 (cs.LG)
引用方式: arXiv:1402.0929 [stat.ML]
  (或者 arXiv:1402.0929v1 [stat.ML] 对于此版本)
  https://doi.org/10.48550/arXiv.1402.0929
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Jasper Snoek [查看电子邮件]
[v1] 星期三, 2014 年 2 月 5 日 03:55:39 UTC (955 KB)
[v2] 星期四, 2014 年 2 月 20 日 22:00:38 UTC (955 KB)
[v3] 星期三, 2014 年 6 月 11 日 20:32:11 UTC (956 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2014-02
切换浏览方式为:
cs
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号