电气工程与系统科学 > 系统与控制
[提交于 2025年7月28日
]
标题: 一种改进的自适应数据启用策略优化控制方法以解决状态扰动
标题: A Modified Adaptive Data-Enabled Policy Optimization Control to Resolve State Perturbations
摘要: 本文提出了对数据使能策略优化(DeePO)算法的修改,以减轻状态扰动。 DeePO是一种自适应的数据驱动方法,旨在迭代计算等效于确定性等价LQR增益的反馈增益。 与其他基于Willems基本引理的数据驱动方法类似,DeePO需要持续激励的输入信号。 然而,来自LQR设计的线性状态反馈增益本身无法生成此类输入。 为了解决这个问题,通常会向控制信号中添加探测噪声以确保持续激励。 然而,添加的噪声可能会引起不期望的状态扰动。 我们首先识别了在未添加探测噪声时危及DeePO期望性能的两个关键问题:状态收敛到平衡点,以及控制器收敛到其最优值。 为了在不依赖探测噪声的情况下解决这些挑战,我们基于两个基本原理提出了无扰动DeePO(PFDeePO)。 首先,在DeePO过程中,当系统状态接近平衡点时,算法暂停控制增益的更新。 其次,当控制器收敛时,它应用一个乘法噪声,该噪声由$1$的均值作为控制信号的增益。 这种方法在系统接近平衡时最小化噪声的影响,同时保持稳定性。 我们通过仿真展示了PFDeePO的有效性,展示了其在保持系统性能和稳定性的同时消除状态扰动的能力。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.