电气工程与系统科学 > 系统与控制
[提交于 2022年12月5日
(v1)
,最后修订 2023年12月6日 (此版本, v2)]
标题: 风险敏感线性二次高斯控制的鲁棒强化学习
标题: Robust Reinforcement Learning for Risk-Sensitive Linear Quadratic Gaussian Control
摘要: 本文提出了一种针对具有模型失配的离散时间线性系统的新型鲁棒强化学习框架,这种模型失配可能源于仿真到现实的差距。 关键策略之一是运用控制理论中的先进方法。 利用经典的风险敏感线性二次高斯控制的公式化表达,提出了一种双环策略优化算法以生成鲁棒最优控制器。 证明了该双环策略优化算法全局一致收敛,并且在学习过程中对扰动具有鲁棒性。 这一鲁棒性属性被称为小扰动输入状态稳定性,保证只要每个学习步长的扰动相对较小,所提出的策略优化算法就能收敛到最优控制器的一个小邻域内。 此外,在系统动力学未知的情况下,提出了一种新的无模型异策略策略优化算法。 最后,通过数值例子展示了所提出的算法。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.