Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2510.23810

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2510.23810 (cs)
[提交于 2025年10月27日 ]

标题: 基于物理信息的多分辨率神经算子

标题: A Physics-informed Multi-resolution Neural Operator

Authors:Sumanta Roy, Bahador Bahmani, Ioannis G. Kevrekidis, Michael D. Shields
摘要: 操作学习框架的预测准确性取决于可用训练数据(输入-输出函数对)的质量和数量,通常需要大量高保真数据,这在一些实际工程应用中可能难以获得。 这些数据集可能在不同实现之间离散化不均匀,网格分辨率在样本之间变化。 在本研究中,我们通过将分辨率无关神经算子(RINO)框架扩展到完全数据自由的设置,引入了一种物理信息操作学习方法,同时解决了这两个挑战。 在这里,任意(但足够精细)离散化的输入函数使用预训练的基函数投影到潜在嵌入空间(即有限维向量空间)。 然后,与底层偏微分方程(PDEs)相关的算子由一个简单的多层感知机(MLP)近似,该感知机以潜在代码和时空坐标作为输入,在物理空间中生成解。 通过在物理空间中的有限差分求解器强制执行PDEs。 所提出的方法在多个具有多分辨率数据的数值示例上进行了验证和性能测试,其中输入函数在不同分辨率下进行采样,包括粗略和精细的离散化。
摘要: The predictive accuracy of operator learning frameworks depends on the quality and quantity of available training data (input-output function pairs), often requiring substantial amounts of high-fidelity data, which can be challenging to obtain in some real-world engineering applications. These datasets may be unevenly discretized from one realization to another, with the grid resolution varying across samples. In this study, we introduce a physics-informed operator learning approach by extending the Resolution Independent Neural Operator (RINO) framework to a fully data-free setup, addressing both challenges simultaneously. Here, the arbitrarily (but sufficiently finely) discretized input functions are projected onto a latent embedding space (i.e., a vector space of finite dimensions), using pre-trained basis functions. The operator associated with the underlying partial differential equations (PDEs) is then approximated by a simple multi-layer perceptron (MLP), which takes as input a latent code along with spatiotemporal coordinates to produce the solution in the physical space. The PDEs are enforced via a finite difference solver in the physical space. The validation and performance of the proposed method are benchmarked on several numerical examples with multi-resolution data, where input functions are sampled at varying resolutions, including both coarse and fine discretizations.
评论: 26页,14图,4表
主题: 机器学习 (cs.LG) ; 偏微分方程分析 (math.AP); 计算物理 (physics.comp-ph); 机器学习 (stat.ML)
引用方式: arXiv:2510.23810 [cs.LG]
  (或者 arXiv:2510.23810v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2510.23810
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Sumanta Roy [查看电子邮件]
[v1] 星期一, 2025 年 10 月 27 日 19:50:02 UTC (5,233 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-10
切换浏览方式为:
cs
math
math.AP
physics
physics.comp-ph
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号