Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.00052

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2501.00052 (cs)
[提交于 2024年12月28日 ]

标题: 针对平均场控制博弈的高效可扩展深度强化学习

标题: Efficient and Scalable Deep Reinforcement Learning for Mean Field Control Games

Authors:Nianli Peng, Yilin Wang
摘要: 平均场控制博弈(MFCGs)提供了一个强大的理论框架,用于分析无限多相互作用代理的系统,融合了平均场博弈(MFGs)和平均场控制(MFC)的元素。然而,求解表征MFCG平衡状态的耦合Hamilton-Jacobi-Bellman方程和Fokker-Planck方程仍然是一个重要的计算挑战,特别是在高维或复杂环境中。 本文提出了一种可扩展的深度强化学习(RL)方法来近似MFCGs的平衡解。在此前工作的基础上,我们将无限代理随机控制问题重新表述为马尔可夫决策过程,在此过程中每个代表性代理与演化的均值场分布交互。我们以先前论文中的演员-评论家算法(Angiuli等人,2024)为基础,并提出了几个版本的更具可扩展性和效率更高的算法,利用了包括并行样本收集(批处理)、小批量处理、目标网络、近端策略优化(PPO)、广义优势估计(GAE)和熵正则化等技术。 通过利用这些技术,我们有效地提高了基线算法的效率、可扩展性和训练稳定性。我们在一个具有解析解的线性二次基准问题上评估了我们的方法。结果表明,我们提出的某些方法实现了更快的收敛速度,并且接近理论最优解,相比基线算法在样本效率方面高出一个数量级。 我们的工作为适应深度RL解决更复杂的MFCGs奠定了基础,例如大规模自主交通系统、多企业经济竞争以及银行间借贷等问题。
摘要: Mean Field Control Games (MFCGs) provide a powerful theoretical framework for analyzing systems of infinitely many interacting agents, blending elements from Mean Field Games (MFGs) and Mean Field Control (MFC). However, solving the coupled Hamilton-Jacobi-Bellman and Fokker-Planck equations that characterize MFCG equilibria remains a significant computational challenge, particularly in high-dimensional or complex environments. This paper presents a scalable deep Reinforcement Learning (RL) approach to approximate equilibrium solutions of MFCGs. Building on previous works, We reformulate the infinite-agent stochastic control problem as a Markov Decision Process, where each representative agent interacts with the evolving mean field distribution. We use the actor-critic based algorithm from a previous paper (Angiuli et.al., 2024) as the baseline and propose several versions of more scalable and efficient algorithms, utilizing techniques including parallel sample collection (batching); mini-batching; target network; proximal policy optimization (PPO); generalized advantage estimation (GAE); and entropy regularization. By leveraging these techniques, we effectively improved the efficiency, scalability, and training stability of the baseline algorithm. We evaluate our method on a linear-quadratic benchmark problem, where an analytical solution to the MFCG equilibrium is available. Our results show that some versions of our proposed approach achieve faster convergence and closely approximate the theoretical optimum, outperforming the baseline algorithm by an order of magnitude in sample efficiency. Our work lays the foundation for adapting deep RL to solve more complicated MFCGs closely related to real life, such as large-scale autonomous transportation systems, multi-firm economic competition, and inter-bank borrowing problems.
主题: 机器学习 (cs.LG) ; 计算机科学与博弈论 (cs.GT); 多智能体系统 (cs.MA)
引用方式: arXiv:2501.00052 [cs.LG]
  (或者 arXiv:2501.00052v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.00052
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Yilin Wang [查看电子邮件]
[v1] 星期六, 2024 年 12 月 28 日 02:04:53 UTC (841 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.GT
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
cs.LG
cs.MA

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号