Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > eess > arXiv:2201.01166v1

帮助 | 高级搜索

电气工程与系统科学 > 系统与控制

arXiv:2201.01166v1 (eess)
[提交于 2022年1月4日 ]

标题: 基于深度学习的电池管理频率调节预测控制

标题: Deep Learning-based Predictive Control of Battery Management for Frequency Regulation

Authors:Yun Li, Yixiu Wang, Yifu Chen, Kaixun Hua, Jiayang Ren, Ghazaleh Mozafari, Qiugang Lu, Yankai Cao
摘要: 本文提出了一种基于深度学习的最优电池管理方案,用于频率调节(FR),该方案结合了模型预测控制(MPC)、监督学习(SL)、强化学习(RL)和高保真电池模型。 通过利用深度神经网络(DNN),得出的DNN近似策略在在线实现中计算效率高。 所提出的方案的设计过程包括两个顺序步骤:(1)SL过程,其中我们首先运行一个嵌入低保真电池模型的MPC仿真以生成训练数据集,然后基于生成的数据集,使用SL算法优化DNN近似策略;以及(2)RL过程,其中我们利用RL算法通过平衡短期经济激励和长期电池退化来提高DNN近似策略的性能。 SL过程通过提供良好的初始化加快了后续的RL过程。 通过利用RL算法,所提出的方案的一个显著特性是它可以利用在高保真电池模拟器上模拟FR策略生成的数据来调整DNN近似策略,该策略最初基于低保真电池模型。 进行了使用实际FR信号和价格数据的案例研究。 仿真结果表明,与传统MPC方案相比,所提出的基于深度学习的方案可以有效实现更高的FR参与经济效益,同时保持较低的在线计算成本。
摘要: This paper proposes a deep learning-based optimal battery management scheme for frequency regulation (FR) by integrating model predictive control (MPC), supervised learning (SL), reinforcement learning (RL), and high-fidelity battery models. By taking advantage of deep neural networks (DNNs), the derived DNN-approximated policy is computationally efficient in online implementation. The design procedure of the proposed scheme consists of two sequential processes: (1) the SL process, in which we first run a simulation with an MPC embedding a low-fidelity battery model to generate a training data set, and then, based on the generated data set, we optimize a DNN-approximated policy using SL algorithms; and (2) the RL process, in which we utilize RL algorithms to improve the performance of the DNN-approximated policy by balancing short-term economic incentives and long-term battery degradation. The SL process speeds up the subsequent RL process by providing a good initialization. By utilizing RL algorithms, one prominent property of the proposed scheme is that it can learn from the data generated by simulating the FR policy on the high-fidelity battery simulator to adjust the DNN-approximated policy, which is originally based on low-fidelity battery model. A case study using real-world data of FR signals and prices is performed. Simulation results show that, compared to conventional MPC schemes, the proposed deep learning-based scheme can effectively achieve higher economic benefits of FR participation while maintaining lower online computational cost.
评论: 30页,5图,2表
主题: 系统与控制 (eess.SY)
引用方式: arXiv:2201.01166 [eess.SY]
  (或者 arXiv:2201.01166v1 [eess.SY] 对于此版本)
  https://doi.org/10.48550/arXiv.2201.01166
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Qiugang Lu [查看电子邮件]
[v1] 星期二, 2022 年 1 月 4 日 14:57:49 UTC (590 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
eess.SY
< 上一篇   |   下一篇 >
新的 | 最近的 | 2022-01
切换浏览方式为:
cs
cs.SY
eess

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号