Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > q-fin > arXiv:2507.01918

帮助 | 高级搜索

定量金融 > 投资组合管理

arXiv:2507.01918 (q-fin)
[提交于 2025年7月2日 ]

标题: 端到端大型投资组合优化用于通过协方差清理的方差最小化神经网络

标题: End-to-End Large Portfolio Optimization for Variance Minimization with Neural Networks through Covariance Cleaning

Authors:Christian Bongiorno, Efstratios Manolakis, Rosario Nunzio Mantegna
摘要: 我们开发了一个旋转不变的神经网络,通过联合学习如何对历史收益进行滞后转换,并如何对大型股票协方差矩阵的特征值和边缘波动率进行正则化,从而提供全局最小方差投资组合。这种显式的数学映射提供了每个模块作用的清晰可解释性,因此该模型不能被视为纯粹的黑箱。该架构模仿了全局最小方差解的解析形式,但对维度保持无偏,因此一个模型可以在几百只股票的面板上进行校准,并在不重新训练的情况下应用于一千只美国股票——这种横截面跳跃展示了稳健的样本外泛化能力。损失函数是未来实现的最小投资组合方差,并在真实每日收益上端到端优化。在2000年1月至2024年12月的样本外测试中,该估计器比最佳分析竞争对手(包括最先进的非线性收缩方法)系统性地实现了更低的实现波动率、更小的最大回撤和更高的夏普比率。此外,尽管该模型是端到端训练以生成无约束(多空)最小方差投资组合,但我们证明其学习到的协方差表示可以在长期限制下的一般优化器中使用,而对其相对于竞争估计器的性能优势几乎没有损失。当策略在高度现实的执行框架下执行时,这些收益依然存在,该框架模拟了拍卖中的市场订单、实证滑点、交易所费用和杠杆融资费用,并且在市场压力加剧的时期,这些收益依然稳定。
摘要: We develop a rotation-invariant neural network that provides the global minimum-variance portfolio by jointly learning how to lag-transform historical returns and how to regularise both the eigenvalues and the marginal volatilities of large equity covariance matrices. This explicit mathematical mapping offers clear interpretability of each module's role, so the model cannot be regarded as a pure black-box. The architecture mirrors the analytical form of the global minimum-variance solution yet remains agnostic to dimension, so a single model can be calibrated on panels of a few hundred stocks and applied, without retraining, to one thousand US equities-a cross-sectional jump that demonstrates robust out-of-sample generalisation. The loss function is the future realized minimum portfolio variance and is optimized end-to-end on real daily returns. In out-of-sample tests from January 2000 to December 2024 the estimator delivers systematically lower realised volatility, smaller maximum drawdowns, and higher Sharpe ratios than the best analytical competitors, including state-of-the-art non-linear shrinkage. Furthermore, although the model is trained end-to-end to produce an unconstrained (long-short) minimum-variance portfolio, we show that its learned covariance representation can be used in general optimizers under long-only constraints with virtually no loss in its performance advantage over competing estimators. These gains persist when the strategy is executed under a highly realistic implementation framework that models market orders at the auctions, empirical slippage, exchange fees, and financing charges for leverage, and they remain stable during episodes of acute market stress.
主题: 投资组合管理 (q-fin.PM) ; 人工智能 (cs.AI); 优化与控制 (math.OC); 数据分析、统计与概率 (physics.data-an); 机器学习 (stat.ML)
MSC 类: 91G10 (Primary) 68T07, 91G60, 62P05 (Secondary)
ACM 类: I.2.6; I.5.1; G.3; J.4
引用方式: arXiv:2507.01918 [q-fin.PM]
  (或者 arXiv:2507.01918v1 [q-fin.PM] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.01918
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Christian Bongiorno [查看电子邮件]
[v1] 星期三, 2025 年 7 月 2 日 17:27:29 UTC (425 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
q-fin.PM
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
math
math.OC
physics
physics.data-an
q-fin
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号