Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > physics > arXiv:2502.05379

帮助 | 高级搜索

物理学 > 化学物理

arXiv:2502.05379 (physics)
[提交于 2025年2月7日 (v1) ,最后修订 2025年6月12日 (此版本, v2)]

标题: 教师-学生训练提高了机器学习原子间势的准确性和效率

标题: Teacher-student training improves accuracy and efficiency of machine learning interatomic potentials

Authors:Sakib Matin, Alice E. A. Allen, Emily Shinkle, Aleksandra Pachalieva, Galen T. Craven, Benjamin Nebgen, Justin S. Smith, Richard Messerly, Ying Wai Li, Sergei Tretiak, Kipton Barros, Nicholas Lubbers
摘要: 机器学习间歇原子势(MLIPs)正在彻底改变分子动力学(MD)模拟领域。最近的MLIPs倾向于在更大数据集上训练更复杂的架构。由此导致的计算和内存成本增加可能会阻碍这些MLIPs在大规模MD模拟中的应用。在这里,我们提出了一种教师-学生训练框架,其中教师(原子能量)的潜在知识被用来增强学生的训练。我们展示了轻量级的学生MLIPs相比教师模型,在内存占用极小的情况下具有更快的MD速度。令人惊讶的是,即使学生模型和教师模型都训练自相同的量子化学数据集,学生模型的准确性甚至可以超过教师模型。我们的工作强调了MLIPs用于减少大规模MD模拟所需资源的一种实用方法。
摘要: Machine learning interatomic potentials (MLIPs) are revolutionizing the field of molecular dynamics (MD) simulations. Recent MLIPs have tended towards more complex architectures trained on larger datasets. The resulting increase in computational and memory costs may prohibit the application of these MLIPs to perform large-scale MD simulations. Here, we present a teacher-student training framework in which the latent knowledge from the teacher (atomic energies) is used to augment the students' training. We show that the light-weight student MLIPs have faster MD speeds at a fraction of the memory footprint compared to the teacher models. Remarkably, the student models can even surpass the accuracy of the teachers, even though both are trained on the same quantum chemistry dataset. Our work highlights a practical method for MLIPs to reduce the resources required for large-scale MD simulations.
主题: 化学物理 (physics.chem-ph) ; 机器学习 (stat.ML)
引用方式: arXiv:2502.05379 [physics.chem-ph]
  (或者 arXiv:2502.05379v2 [physics.chem-ph] 对于此版本)
  https://doi.org/10.48550/arXiv.2502.05379
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Sakib Matin [查看电子邮件]
[v1] 星期五, 2025 年 2 月 7 日 23:20:43 UTC (2,261 KB)
[v2] 星期四, 2025 年 6 月 12 日 22:27:45 UTC (1,846 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
physics.chem-ph
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-02
切换浏览方式为:
physics
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号