Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > econ > arXiv:2203.06540

帮助 | 高级搜索

经济学 > 一般经济学

arXiv:2203.06540 (econ)
[提交于 2022年3月13日 ]

标题: 使用结构模型、简化形式模型和神经网络模型通过合并国家数据提高宏观经济模型的有效性和预测性能

标题: Improving Macroeconomic Model Validity and Forecasting Performance with Pooled Country Data using Structural, Reduced Form, and Neural Network Model

Authors:Cameron Fen, Samir Undavia
摘要: 我们表明,将国家按面板维度合并到宏观经济数据中,可以以统计上显著的幅度提高结构模型、简化形式模型和机器学习(ML)方法的泛化能力,从而产生最先进的结果。 使用在样本外测试集上评估的GDP预测,该过程在某些简化形式模型中,跨时间跨度和模型减少了12%的均方根误差,在动态结构一般均衡模型中,跨时间跨度减少了24%。 从训练集中移除美国数据并进行样本外的国家层面预测,我们表明当在合并数据上训练时,简化形式模型和结构模型更具政策不变性,并优于仅使用美国数据的基准模型。 鉴于ML模型在数据丰富的环境中的比较优势,我们证明我们的循环神经网络模型和自动化ML方法优于所有测试的基准经济模型。 稳健性检验表明,我们的优越表现是可重复的、数值稳定的,并且适用于各种模型。
摘要: We show that pooling countries across a panel dimension to macroeconomic data can improve by a statistically significant margin the generalization ability of structural, reduced form, and machine learning (ML) methods to produce state-of-the-art results. Using GDP forecasts evaluated on an out-of-sample test set, this procedure reduces root mean squared error by 12\% across horizons and models for certain reduced-form models and by 24\% across horizons for dynamic structural general equilibrium models. Removing US data from the training set and forecasting out-of-sample country-wise, we show that reduced-form and structural models are more policy-invariant when trained on pooled data, and outperform a baseline that uses US data only. Given the comparative advantage of ML models in a data-rich regime, we demonstrate that our recurrent neural network model and automated ML approach outperform all tested baseline economic models. Robustness checks indicate that our outperformance is reproducible, numerically stable, and generalizable across models.
主题: 一般经济学 (econ.GN)
引用方式: arXiv:2203.06540 [econ.GN]
  (或者 arXiv:2203.06540v1 [econ.GN] 对于此版本)
  https://doi.org/10.48550/arXiv.2203.06540
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Cameron Fen [查看电子邮件]
[v1] 星期日, 2022 年 3 月 13 日 00:37:09 UTC (2,745 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
econ.GN
< 上一篇   |   下一篇 >
新的 | 最近的 | 2022-03
切换浏览方式为:
econ
q-fin
q-fin.EC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号