Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-fin > arXiv:2506.03780

帮助 | 高级搜索

定量金融 > 统计金融

arXiv:2506.03780 (q-fin)
[提交于 2025年6月4日 (v1) ,最后修订 2025年7月4日 (此版本, v3)]

标题: 金融中的高维学习

标题: High-Dimensional Learning in Finance

Authors:Hasan Fallahgoul
摘要: 近年来,机器学习的进展在使用大型过度参数化模型进行金融预测方面显示了有希望的结果。 本文提供了理论基础和实证验证,以理解这些方法何时以及如何实现预测成功。 我研究了金融领域高维学习的两个关键方面。 首先,我证明了在随机傅里叶特征实现中的样本内标准化从根本上改变了基础的高斯核近似,将平移不变核替换为依赖训练集的替代方案。 其次,我建立了信息论下界,确定了无论估计器多么复杂,可靠学习不可能发生的情况。 对多项式下界的详细定量校准表明,使用典型的参数选择,例如12,000个特征,12个月的观测数据,以及R平方2-3%,要摆脱该下界所需的样本量超过25-30年的数据——远超出任何实际使用的滚动窗口。 因此,观察到的样本外成功必须源于低复杂度的伪象,而不是来自预期的高维机制。
摘要: Recent advances in machine learning have shown promising results for financial prediction using large, over-parameterized models. This paper provides theoretical foundations and empirical validation for understanding when and how these methods achieve predictive success. I examine two key aspects of high-dimensional learning in finance. First, I prove that within-sample standardization in Random Fourier Features implementations fundamentally alters the underlying Gaussian kernel approximation, replacing shift-invariant kernels with training-set dependent alternatives. Second, I establish information-theoretic lower bounds that identify when reliable learning is impossible no matter how sophisticated the estimator. A detailed quantitative calibration of the polynomial lower bound shows that with typical parameter choices, e.g., 12,000 features, 12 monthly observations, and R-square 2-3%, the required sample size to escape the bound exceeds 25-30 years of data--well beyond any rolling-window actually used. Thus, observed out-of-sample success must originate from lower-complexity artefacts rather than from the intended high-dimensional mechanism.
主题: 统计金融 (q-fin.ST) ; 机器学习 (cs.LG); 计量经济学 (econ.EM); 机器学习 (stat.ML)
引用方式: arXiv:2506.03780 [q-fin.ST]
  (或者 arXiv:2506.03780v3 [q-fin.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.03780
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hasan Fallahgoul [查看电子邮件]
[v1] 星期三, 2025 年 6 月 4 日 09:41:55 UTC (93 KB)
[v2] 星期一, 2025 年 6 月 9 日 14:20:01 UTC (609 KB)
[v3] 星期五, 2025 年 7 月 4 日 11:59:32 UTC (610 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
q-fin.ST
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs
cs.LG
econ
econ.EM
q-fin
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | Disable MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号