数学 > 优化与控制
[提交于 2016年4月5日
(v1)
,最后修订 2019年6月19日 (此版本, v3)]
标题: 高维昂贵黑箱函数的期望改进扩展方法
标题: Extending Expected Improvement for High-dimensional Stochastic Optimization of Expensive Black-Box Functions
摘要: 在目标函数评估成本高昂的情况下,不确定性下的设计优化以著称的困难。 最先进的技术,例如随机优化或抽样平均逼近,在从收集的数据中学习可利用的模式方面失败,并且需要过多的目标函数评估次数。 需要能够减轻信息获取高成本并最优选择顺序模拟的技术。 在确定性单目标无约束全局优化领域,贝叶斯全局优化(BGO)方法在解决信息获取问题方面相对成功。 BGO构建了一个昂贵目标函数的概率代理模型,并使用它来定义一个信息获取函数(IAF),其作用是量化进行新目标评估的价值。 具体来说,BGO在进行具有最大期望IAF的观测和重建概率代理模型之间迭代,直到满足收敛准则。 在这项工作中,我们将期望改进(EI)IAF扩展到不确定性下的设计优化情况,其中EI策略被重新制定以过滤参数和测量不确定性。 为了在小样本情况下提高我们方法的鲁棒性,我们通过使用自适应马尔可夫链蒙特卡罗构建其超参数后验的粒子近似,采用高斯过程的完全贝叶斯解释。 我们通过解决两个合成的不确定性优化问题来验证和验证我们的方法,并通过解决具有渗透率场和石油价格时间序列不确定性的油井布置问题来展示它。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.