计算机科学 > 计算工程、金融与科学
[提交于 2025年10月13日
]
标题: LRQ-Solver:一种用于快速准确求解大规模3D偏微分方程的基于Transformer的神经算子
标题: LRQ-Solver: A Transformer-Based Neural Operator for Fast and Accurate Solving of Large-scale 3D PDEs
摘要: 求解复杂三维几何上的大规模偏微分方程(PDE)是科学和工程计算中的核心挑战,通常受到昂贵的预处理阶段和巨大的计算开销的阻碍。我们引入了基于低秩查询的PDE求解器(LRQ-Solver),这是一个集成物理的框架,专为工业级模型的快速、准确和高度可扩展的模拟而设计。该框架建立在两个主要的技术创新之上。首先,我们的参数条件拉格朗日建模(PCLM)方法将局部物理状态与全局设计参数显式耦合,从而在各种模拟配置中实现稳健的预测。通过将物理一致性直接嵌入学习架构中,PCLM确保即使在未见过的设计条件下,预测仍保持物理意义,显著增强了泛化能力和可靠性。其次,低秩查询注意力(LR-QA)模块利用物理场的二阶统计量构建全局一致性核,将注意力的计算复杂度从O(N2)降低到O(NC2 + C3)。通过用协方差分解代替点对聚类,LRQ-Solver实现了卓越的可扩展性,高效处理多达200万个点。在标准基准测试中,LRQ-Solver在DrivAer++数据集上实现了38.9%的误差减少,在3D Beam数据集上实现了28.76%,同时训练速度提高了多达50倍。我们的结果表明,LRQ-Solver为多配置物理模拟提供了一个强大的范式,提供了最先进的准确度、可扩展性和效率组合。用于重现实验的代码可在https://github.com/LilaKen/LRQ-Solver获取。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.