计算机科学 > 计算工程、金融与科学
[提交于 2025年8月13日
]
标题: 微调大型语言模型作为有效的符号回归器
标题: Finetuning Large Language Model as an Effective Symbolic Regressor
摘要: 从观测数据推导控制方程,称为符号回归(SR),是科学发现的核心。大型语言模型(LLMs)通过利用其广泛的跨学科科学知识,在这项任务中表现出潜力。然而,现有的基于LLM的方法主要依赖于直接推理或提示工程,通常需要过多的推理迭代才能收敛到正确的公式,或者无法处理复杂的方程目标。这些在效果和泛化能力上的限制源于预训练LLMs在近似推理方面的熟练程度与SR任务对高精度需求之间的固有矛盾。为了弥合这一差距,我们提出对LLM进行微调以增强其SR能力。然而,缺乏针对SR定向微调的专用数据集仍然是一个关键障碍。因此,我们引入了SymbArena,专门设计用于优化LLM的SR能力。该基准包含148,102个多样化的方程,作为18.3亿个标记的语料库供LLM使用,实现了有效的训练和推理。此外,SymbArena提出了一种启发式度量标准,以精确量化形式一致性,超越了现有的以数值为导向的SR评估策略。通过这个基准,我们探索了主流的LLM微调技术用于SR任务,并建立了SymbolicChat,这是一个简单但有效的基于LLM的SR强基线。实验结果验证了SymbolicChat作为第一个在数值精度和符号形式准确性方面超过传统数值方法的LLM,其R2分数提高了两倍,形式一致性分数提高了8.37%。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.