Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.23201

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2506.23201 (cs)
[提交于 2025年6月29日 ]

标题: 基于外部数据增强的自适应概率负荷预测元表示

标题: External Data-Enhanced Meta-Representation for Adaptive Probabilistic Load Forecasting

Authors:Haoran Li, Muhao Guo, Marija Ilic, Yang Weng, Guangchun Ruan
摘要: 准确的居民负荷预测对于提高电力系统可靠性至关重要,尤其是在可再生能源比例上升和需求侧灵活性增强的背景下。 然而,大多数统计和机器学习模型将外部因素(如天气、日历效应和定价)作为额外输入,忽略了它们的异质性,从而限制了有用外部信息的提取。 我们提出了一种范式转变:外部数据应作为元知识,以动态适应预测模型本身。 基于这一理念,我们设计了一个使用超网络的元表示框架,该框架根据外部条件调节基础深度学习(DL)模型的选定参数。 这提供了表达能力和适应性。 我们进一步集成了一个专家混合(MoE)机制,通过选择性专家激活来提高效率,同时通过过滤冗余的外部输入来提高鲁棒性。 所提出的模型被称为外部数据的元专家混合(M2oE2),在有限的额外开销下显著提高了准确性和鲁棒性,在多种负荷数据集中优于现有的最先进方法。 数据集和源代码可在 https://github.com/haorandd/M2oE2\_load\_forecast.git 公开获取。
摘要: Accurate residential load forecasting is critical for power system reliability with rising renewable integration and demand-side flexibility. However, most statistical and machine learning models treat external factors, such as weather, calendar effects, and pricing, as extra input, ignoring their heterogeneity, and thus limiting the extraction of useful external information. We propose a paradigm shift: external data should serve as meta-knowledge to dynamically adapt the forecasting model itself. Based on this idea, we design a meta-representation framework using hypernetworks that modulate selected parameters of a base Deep Learning (DL) model in response to external conditions. This provides both expressivity and adaptability. We further integrate a Mixture-of-Experts (MoE) mechanism to enhance efficiency through selective expert activation, while improving robustness by filtering redundant external inputs. The resulting model, dubbed as a Meta Mixture of Experts for External data (M2oE2), achieves substantial improvements in accuracy and robustness with limited additional overhead, outperforming existing state-of-the-art methods in diverse load datasets. The dataset and source code are publicly available at https://github.com/haorandd/M2oE2\_load\_forecast.git.
评论: 10页
主题: 机器学习 (cs.LG) ; 系统与控制 (eess.SY)
引用方式: arXiv:2506.23201 [cs.LG]
  (或者 arXiv:2506.23201v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.23201
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Haoran Li [查看电子邮件]
[v1] 星期日, 2025 年 6 月 29 日 12:07:18 UTC (915 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs.LG
cs.SY
eess
eess.SY

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号