数学 > 数值分析
[提交于 2025年4月11日
]
标题: 导数信息算子学习的降维:近似误差分析
标题: Dimension reduction for derivative-informed operator learning: An analysis of approximation errors
摘要: 我们研究通过神经网络在无限维可分希尔伯特空间之间的非线性算子的导数信息学习。 这些算子可能来源于偏微分方程(PDE)的解,并用于科学和工程中的许多基于仿真的外层任务,如PDE约束优化、贝叶斯反问题和最优实验设计。 在这些情况下,神经网络近似可以作为代理模型,以加速外层任务的求解。 然而,由于无限维的外层任务通常需要了解底层几何结构,算子导数的近似精度也会显著影响代理模型的性能。 受此启发,我们在无限维高斯输入测度上分析了神经算子在索博列夫范数下的近似误差。 我们关注的是降阶基神经算子(RBNO),它使用定义在由降阶正交基集张成的主要输入/输出子空间上的线性编码器和解码器。 为此,我们研究了两种生成基的方法;主成分分析(PCA)和导数信息子空间(DIS),分别使用数据协方差或导数的主要特征向量作为降阶基。 然后,我们推导了来自维度约简和潜在神经网络近似的误差界限,包括PCA/DIS经验估计相关的采样误差。 我们的分析在椭圆PDE的数值实验中得到验证,结果表明由映射信息的基(即DIS或输出PCA)对于算子及其导数的重建和泛化误差都能提供准确的结果,而输入PCA在秩和训练样本数量足够大时才能表现良好。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.