物理学 > 化学物理
[提交于 2025年5月27日
(v1)
,最后修订 2025年6月11日 (此版本, v2)]
标题: 更高效且可泛化的学习的动力学数据:无序弹性网络的案例研究
标题: Dynamical Data for More Efficient and Generalizable Learning: A Case Study in Disordered Elastic Networks
摘要: 机器学习模型通常需要大规模数据集,并且难以泛化到训练分布之外。这些局限性在科学和工程背景下构成了重大挑战,在这些领域生成穷尽的数据集通常是不切实际的,目标往往是发现超出训练域的新颖解决方案。 在这项工作中,我们通过基于图神经网络的模拟器探索动态数据的应用,以实现在二维无序弹性网络单轴压缩背景下的高效系统-属性学习和分布外预测。我们发现该模拟器可以从少量训练样本中学到潜在的物理动力学,并准确再现未见过的网络的时间演化。值得注意的是,尽管模拟器没有明确针对此任务进行训练,但它能够准确预测泊松比及其随应变的变化等涌现性质。此外,它在系统温度、应变幅度以及尤其显著地在超出训练范围的泊松比变化上表现出良好的泛化能力。这些发现表明,使用动态数据来训练机器学习模型可以支持更高效和可泛化的材料和分子设计方法,尤其是在数据稀缺的情况下。
当前浏览上下文:
physics.chem-ph
切换浏览方式为:
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.