计算机科学 > 机器学习
[提交于 2022年3月6日
]
标题: 基于随机先验的深度算子网络的可扩展不确定性量化
标题: Scalable Uncertainty Quantification for Deep Operator Networks using Randomized Priors
摘要: 我们提出了一种简单而有效的方法,用于深度算子网络(DeepONets)的后验不确定性量化;这是一种在函数空间中监督学习的新兴范式。 我们采用基于随机先验集合的频率学方法,并提出了一种高效的向量化实现,以便在加速硬件上进行快速并行推理。 通过计算力学和气候建模中的代表性示例,我们表明所提出的方法有四个优点。 (1) 与确定性 DeepONets 相比,它能够提供更稳健和准确的预测。 (2) 它在稀缺数据集上具有多尺度函数对时,能提供可靠的不确定性估计。 (3) 它可以有效地检测分布外和对抗性示例。 (4) 它可以无缝地量化由于模型偏差以及数据中的噪声干扰引起的不确定性。 最后,我们提供了一个优化的 JAX 库称为{\em UQDeepONet},它可以容纳大型模型架构、大型集成规模以及在加速硬件上具有出色并行性能的大数据集,从而使得在现实中的大规模应用中对 DeepONets 进行不确定性量化成为可能。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.