计算机科学 > 计算机科学与博弈论
[提交于 2022年6月6日
]
标题: 基于规范的学习高社会福利纳什均衡
标题: Specification-Guided Learning of Nash Equilibria with High Social Welfare
摘要: 强化学习已被证明是自动训练具有挑战性控制问题策略的有效策略。 专注于非合作多智能体系统,我们提出了一种新的强化学习框架,用于训练形成纳什均衡的联合策略。 在我们的方法中,用户不是提供低层次的奖励函数,而是提供高层次的规范,这些规范编码了每个智能体的目标。 然后,在规范结构的指导下,我们的算法搜索策略以确定一个可证明形成$\epsilon$-纳什均衡(高概率)的策略。 重要的是,它以最大化所有智能体社会福利的方式优先选择策略。 我们的实验评估表明,我们的算法计算出的社会福利高的均衡策略,而最先进的基线方法要么无法计算纳什均衡,要么计算出的社会福利相对较低。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.