计算机科学 > 计算工程、金融与科学
[提交于 2025年2月3日
]
标题: 元神经拓扑优化:元学习中的知识注入
标题: Meta-neural Topology Optimization: Knowledge Infusion with Meta-learning
摘要: 工程师从他们创造的每个设计中学习,建立起有助于他们快速识别新问题有前途解决方案的直觉。 拓扑优化(TO)——一种用于设计性能优化结构的成熟计算方法——缺乏这种从经验中学习的能力。 现有方法将设计任务孤立处理,对于每个新问题都从“空白画布”设计开始,通常需要许多计算成本高昂的步骤才能收敛。 我们提出了一种元学习策略,称为元神经拓扑优化,通过在相关任务之间系统地转移知识,找到有效的初始设计,利用神经再参数化提供的与网格无关的表示。 我们将我们的方法与现有的TO方法进行比较,证明了在各种测试案例中高效优化,而不会损害设计质量。 此外,我们展示了强大的跨分辨率迁移能力,在较低分辨率离散化上学习的初始化在更高分辨率测试集上的74.1%的任务中实现了更好的收敛性,与标准神经TO相比,平均迭代次数减少了33.6%。 值得注意的是,我们发现元学习自然倾向于均匀密度设计中的应变能模式作为有效的起点,这与工程直觉一致。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.