Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > math > arXiv:2504.08730

帮助 | 高级搜索

数学 > 数值分析

arXiv:2504.08730 (math)
[提交于 2025年4月11日 ]

标题: 导数信息算子学习的降维:近似误差分析

标题: Dimension reduction for derivative-informed operator learning: An analysis of approximation errors

Authors:Dingcheng Luo, Thomas O'Leary-Roseberry, Peng Chen, Omar Ghattas
摘要: 我们研究通过神经网络在无限维可分希尔伯特空间之间的非线性算子的导数信息学习。 这些算子可能来源于偏微分方程(PDE)的解,并用于科学和工程中的许多基于仿真的外层任务,如PDE约束优化、贝叶斯反问题和最优实验设计。 在这些情况下,神经网络近似可以作为代理模型,以加速外层任务的求解。 然而,由于无限维的外层任务通常需要了解底层几何结构,算子导数的近似精度也会显著影响代理模型的性能。 受此启发,我们在无限维高斯输入测度上分析了神经算子在索博列夫范数下的近似误差。 我们关注的是降阶基神经算子(RBNO),它使用定义在由降阶正交基集张成的主要输入/输出子空间上的线性编码器和解码器。 为此,我们研究了两种生成基的方法;主成分分析(PCA)和导数信息子空间(DIS),分别使用数据协方差或导数的主要特征向量作为降阶基。 然后,我们推导了来自维度约简和潜在神经网络近似的误差界限,包括PCA/DIS经验估计相关的采样误差。 我们的分析在椭圆PDE的数值实验中得到验证,结果表明由映射信息的基(即DIS或输出PCA)对于算子及其导数的重建和泛化误差都能提供准确的结果,而输入PCA在秩和训练样本数量足够大时才能表现良好。
摘要: We study the derivative-informed learning of nonlinear operators between infinite-dimensional separable Hilbert spaces by neural networks. Such operators can arise from the solution of partial differential equations (PDEs), and are used in many simulation-based outer-loop tasks in science and engineering, such as PDE-constrained optimization, Bayesian inverse problems, and optimal experimental design. In these settings, the neural network approximations can be used as surrogate models to accelerate the solution of the outer-loop tasks. However, since outer-loop tasks in infinite dimensions often require knowledge of the underlying geometry, the approximation accuracy of the operator's derivatives can also significantly impact the performance of the surrogate model. Motivated by this, we analyze the approximation errors of neural operators in Sobolev norms over infinite-dimensional Gaussian input measures. We focus on the reduced basis neural operator (RBNO), which uses linear encoders and decoders defined on dominant input/output subspaces spanned by reduced sets of orthonormal bases. To this end, we study two methods for generating the bases; principal component analysis (PCA) and derivative-informed subspaces (DIS), which use the dominant eigenvectors of the covariance of the data or the derivatives as the reduced bases, respectively. We then derive bounds for errors arising from both the dimension reduction and the latent neural network approximation, including the sampling errors associated with the empirical estimation of the PCA/DIS. Our analysis is validated on numerical experiments with elliptic PDEs, where our results show that bases informed by the map (i.e., DIS or output PCA) yield accurate reconstructions and generalization errors for both the operator and its derivatives, while input PCA may underperform unless ranks and training sample sizes are sufficiently large.
主题: 数值分析 (math.NA) ; 机器学习 (cs.LG)
引用方式: arXiv:2504.08730 [math.NA]
  (或者 arXiv:2504.08730v1 [math.NA] 对于此版本)
  https://doi.org/10.48550/arXiv.2504.08730
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Dingcheng Luo [查看电子邮件]
[v1] 星期五, 2025 年 4 月 11 日 17:56:52 UTC (5,532 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
math
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-04
切换浏览方式为:
cs
cs.LG
cs.NA
math.NA

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号