定量金融 > 投资组合管理
[提交于 2024年2月23日
]
标题: 基于Transformer的深度强化学习与Black-Litterman模型结合的组合优化方法
标题: Combining Transformer based Deep Reinforcement Learning with Black-Litterman Model for Portfolio Optimization
摘要: 作为一种无模型算法,深度强化学习(DRL)智能体通过与环境进行无监督交互来学习和做出决策。 近年来,学者们已将DRL算法广泛应用于连续交易时期的组合优化,因为DRL智能体可以动态适应市场变化,并且不依赖于资产间联合动态的规范。 然而,典型的用于组合优化的DRL智能体无法学习到一种能够感知组合资产收益之间动态相关性的策略。 由于组合资产之间的动态相关性在优化组合中至关重要,缺乏这种知识使得DRL智能体难以在单位风险下最大化收益,尤其是在允许做空的市场(即美国股票市场)中。 在本研究中,我们提出了一种混合组合优化模型,结合DRL智能体和Black-Litterman(BL)模型,使DRL智能体能够学习组合资产收益之间的动态相关性,并基于相关性实施有效的多空策略。 本质上,DRL智能体被训练以学习应用BL模型来确定目标组合权重的策略。 为了测试我们的DRL智能体,我们基于道琼斯工业平均指数的所有构成股票构建了组合。 在真实世界美国股票市场数据上进行的实验结果表明,我们的DRL智能体在累计收益方面至少比各种比较组合选择策略和其他DRL框架高出42%。 在单位风险收益方面,我们的DRL智能体显著优于各种比较组合选择策略和其他基于其他机器学习框架的替代策略。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.