Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-fin > arXiv:2506.03780

帮助 | 高级搜索

定量金融 > 统计金融

arXiv:2506.03780 (q-fin)
[提交于 2025年6月4日 ]

标题: 金融领域的高维学习

标题: High-Dimensional Learning in Finance

Authors:Hasan Fallahgoul
摘要: 机器学习领域的近期进展在使用大规模过参数化模型进行金融预测时展现了有前景的结果。 本文提供了理论基础和实证验证,以理解这些方法何时以及如何实现预测成功。 我研究了金融领域高维学习的三个关键方面。 首先,我证明了随机傅里叶特征实现中的样本内标准化从根本上改变了底层的高斯核近似,用依赖于训练集的替代方案取代了平移不变核。 其次,我推导了样本复杂度界限,表明在典型的金融弱信噪比下,可靠学习变得信息论上不可能的情况。 第三,VC维分析揭示了岭回归的复杂性由样本量而非名义特征维度决定。 全面的数值验证确认了这些理论预测,揭示了在现实参数范围内声称的理论性质的系统性失效。 这些结果表明,当样本量小且特征维度高时,观察到的预测成功必然由低复杂度的伪影驱动,而非真正的高维学习。
摘要: Recent advances in machine learning have shown promising results for financial prediction using large, over-parameterized models. This paper provides theoretical foundations and empirical validation for understanding when and how these methods achieve predictive success. I examine three key aspects of high-dimensional learning in finance. First, I prove that within-sample standardization in Random Fourier Features implementations fundamentally alters the underlying Gaussian kernel approximation, replacing shift-invariant kernels with training-set dependent alternatives. Second, I derive sample complexity bounds showing when reliable learning becomes information-theoretically impossible under weak signal-to-noise ratios typical in finance. Third, VC-dimension analysis reveals that ridgeless regression's effective complexity is bounded by sample size rather than nominal feature dimension. Comprehensive numerical validation confirms these theoretical predictions, revealing systematic breakdown of claimed theoretical properties across realistic parameter ranges. These results show that when sample size is small and features are high-dimensional, observed predictive success is necessarily driven by low-complexity artifacts, not genuine high-dimensional learning.
主题: 统计金融 (q-fin.ST) ; 机器学习 (cs.LG); 计量经济学 (econ.EM); 机器学习 (stat.ML)
引用方式: arXiv:2506.03780 [q-fin.ST]
  (或者 arXiv:2506.03780v1 [q-fin.ST] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.03780
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Hasan Fallahgoul [查看电子邮件]
[v1] 星期三, 2025 年 6 月 4 日 09:41:55 UTC (93 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs.LG
econ
econ.EM
q-fin
q-fin.ST
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号