统计学 > 机器学习
[提交于 2025年10月7日
]
标题: 用于学习超参数的分层优化:在使用高斯过程求解偏微分方程和反问题中的应用
标题: Bilevel optimization for learning hyperparameters: Application to solving PDEs and inverse problems with Gaussian processes
摘要: 用于解决科学计算和推断问题的方法,如基于核函数和神经网络的偏微分方程(PDEs)方法、反问题和监督学习任务,关键取决于超参数的选择。特别是,这些方法的效果,尤其是它们的准确性、稳定性和泛化能力,强烈依赖于超参数的选择。虽然双层优化为超参数调整提供了一个合理的框架,但其嵌套优化结构在计算上可能非常耗时,尤其是在PDE约束的情况下。在本文中,我们通过采用内层优化步骤的高斯-牛顿线性化,在双层框架内提出了一种高效的超参数优化策略。我们的方法提供了显式更新,消除了重复进行昂贵的PDE求解的需要。因此,外层循环的每次迭代减少为一次线性化的PDE求解,随后进行显式的基于梯度的超参数更新。我们通过将高斯过程模型应用于非线性PDE和PDE反问题来展示所提方法的有效性。大量的数值实验表明,与传统的随机超参数初始化相比,准确性与鲁棒性有显著提升。特别是,使用加法核和神经网络参数化的深度核的实验展示了该方法在高维超参数优化中的可扩展性和有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.