定量金融 > 一般金融
[提交于 2025年4月20日
]
标题: 记忆问题:我们能信任大型语言模型的经济预测吗?
标题: The Memorization Problem: Can We Trust LLMs' Economic Forecasts?
摘要: 大型语言模型(LLMs)在它们的训练数据覆盖的时期内不能被信任用于经济预测。 我们提供了对LLMs记忆经济和金融数据(包括主要经济指标、新闻标题、股票回报率和会议电话)的第一个系统性评估。 我们的研究结果显示,LLMs可以完美地回忆起它们知识截止日期前的关键经济变量的确切数值。 这种回忆似乎在不同的日期和数据类型之间随机分布。 这种选择性的完美记忆造成一个基本问题——在测试知识截止日期前的预测能力时,我们无法区分LLMs是在进行预测还是仅仅访问记忆中的数据。 尊重历史数据边界的明确指示未能阻止LLMs在预测任务中达到回忆水平的准确性。 此外,LLMs似乎擅长从最少的上下文线索中重构被掩盖的实体,这表明掩蔽提供的保护不足以防止动机推理。 我们的研究结果引发了关于使用LLMs来预测历史数据或回测交易策略的担忧,因为它们看似成功的预测可能只是反映记忆而不是真正的经济洞见。 任何未来知识会改变LLMs输出的应用都可能受到记忆的影响。 相比之下,与数据污染缺失一致的是,LLMs在其知识截止日期后无法回忆起数据。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.