电气工程与系统科学 > 系统与控制
[提交于 2025年7月14日
]
标题: 强化学习与贝叶斯优化在工业过程智能控制中的交叉:一种基于安全MPC的多目标BO的DPG
标题: Intersection of Reinforcement Learning and Bayesian Optimization for Intelligent Control of Industrial Processes: A Safe MPC-based DPG using Multi-Objective BO
摘要: 基于模型预测控制(MPC)的强化学习(RL)为深度神经网络(DNN)的RL方法提供了一种结构化且可解释的替代方案,具有较低的计算复杂度和更高的透明度。 然而,标准的MPC-RL方法通常存在收敛速度慢、由于参数化有限而导致的次优策略学习以及在线适应过程中的安全问题。 为了解决这些挑战,我们提出了一种新的框架,将MPC-RL与多目标贝叶斯优化(MOBO)相结合。 所提出的MPC-RL-MOBO利用通过兼容确定性策略梯度(CDPG)方法估计的RL阶段成本及其梯度的噪声评估,并通过期望超体积改进(EHVI)获取函数将它们纳入MOBO算法中。 这种融合使得在模型不完善的情况下,能够高效且安全地调整MPC参数,以实现改进的闭环性能。 一个数值示例展示了所提出方法在控制系统的样本高效、稳定和高性能学习方面的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.