统计学 > 机器学习
[提交于 2025年10月13日
]
标题: 关于汤普森采样和加性贝叶斯优化中的双边不确定性
标题: On Thompson Sampling and Bilateral Uncertainty in Additive Bayesian Optimization
摘要: 在贝叶斯优化(BO)中,加法假设可以缓解在高维空间中建模和搜索复杂函数的双重困难。 然而,常见的获取函数,如加法下限置信区间,忽略了维度之间的成对协方差,我们将这称为\textit{双边不确定性} (BU),这引入了第二层近似。 虽然理论结果表明这样做在渐近意义上损失不大,但关于这种假设在小预算下的实际影响知之甚少。 在本文中,我们表明通过利用条件独立性,可以高效地进行尊重 BU 的汤普森采样。 我们利用这一事实对忽略 BU 所造成的损失进行了实证研究,发现从整体上看,对汤普森采样的加法近似确实比精确方法表现更差,但这种差异在实践中意义不大。 这加强了理论理解,并表明在实践中,即使在非渐近情况下,忽略 BU 的近似方法对于 BO 也是足够的。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.