物理学 > 物理与社会
[提交于 2025年1月20日
(v1)
,最后修订 2025年4月29日 (此版本, v2)]
标题: 重复连续放松博弈中的决定性策略
标题: Zero-determinant strategies in repeated continuously-relaxed games
摘要: 混合扩展在博弈论中发挥了重要作用,尤其是在证明策略型博弈中纳什均衡存在的过程中。 混合扩展可以被视为策略型博弈的连续松弛。 最近,在重复博弈中,引入了一类行为策略,称为决定性零策略。 决定性零策略通过单方面强制支付之间的线性关系来控制玩家的支付。 有许多尝试将决定性零策略进行扩展,以便将其应用于更广泛的情况。 在这里,我们将决定性零策略扩展到阶段博弈中玩家行动集被连续松弛的重复博弈中。 我们发现,与原始的重复博弈相比,连续松弛扩大了可能的决定性零策略的范围。 此外,我们引入了一种特殊的决定性零策略,称为一点决定性零策略,它在所有轮次中仅重复一个连续松弛后的动作。 通过研究几个例子,我们表明混合策略纳什均衡的一些性质可以重新解释为一点决定性零策略的支付控制特性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.