Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2506.00630v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2506.00630v1 (cs)
[提交于 2025年5月31日 ]

标题: 基于时间序列基础模型的建筑能源系统概率预测

标题: Probabilistic Forecasting for Building Energy Systems using Time-Series Foundation Models

Authors:Young Jin Park, Francois Germain, Jing Liu, Ye Wang, Toshiaki Koike-Akino, Gordon Wichern, Navid Azizan, Christopher R. Laughman, Ankush Chakrabarty
摘要: 建筑能源系统中的决策严重依赖于相关时间序列模型的预测准确性。在缺乏目标建筑广泛数据的情况下,基础模型(FMs)代表了一种有前景的技术,能够利用从大规模和多样化的预训练数据集中获得的先验知识,构建用于决策工具的准确概率预测器。本文研究了时间序列基础模型(TSFMs)在建筑能耗预测中的适用性和微调策略。我们通过使用商业净零能耗建筑的真实数据,分析了全量微调和参数高效微调方法,特别是低秩适应(LoRA)。这些数据捕获了诸如房间占用、碳排放、插座负荷以及暖通空调能耗等信号。我们的分析表明,TSFMs的零样本预测性能通常不够理想。为了解决这一不足,我们证明了采用全量微调或参数高效微调可以显著提高预测精度,即使是在有限的历史数据情况下。值得注意的是,采用低秩适应(LoRA)进行微调大幅降低了计算成本,而不会牺牲准确性。此外,在各种建筑区域和季节条件下,微调后的TSFMs在准确性、鲁棒性和泛化能力方面始终优于最先进的深度预测模型(如时序融合变换器)。这些结果强调了TSFMs在实际且数据受限的建筑能源管理系统中的有效性,从而促进了在追求能源效率和可持续性方面的改进决策。
摘要: Decision-making in building energy systems critically depends on the predictive accuracy of relevant time-series models. In scenarios lacking extensive data from a target building, foundation models (FMs) represent a promising technology that can leverage prior knowledge from vast and diverse pre-training datasets to construct accurate probabilistic predictors for use in decision-making tools. This paper investigates the applicability and fine-tuning strategies of time-series foundation models (TSFMs) in building energy forecasting. We analyze both full fine-tuning and parameter-efficient fine-tuning approaches, particularly low-rank adaptation (LoRA), by using real-world data from a commercial net-zero energy building to capture signals such as room occupancy, carbon emissions, plug loads, and HVAC energy consumption. Our analysis reveals that the zero-shot predictive performance of TSFMs is generally suboptimal. To address this shortcoming, we demonstrate that employing either full fine-tuning or parameter-efficient fine-tuning significantly enhances forecasting accuracy, even with limited historical data. Notably, fine-tuning with low-rank adaptation (LoRA) substantially reduces computational costs without sacrificing accuracy. Furthermore, fine-tuned TSFMs consistently outperform state-of-the-art deep forecasting models (e.g., temporal fusion transformers) in accuracy, robustness, and generalization across varying building zones and seasonal conditions. These results underline the efficacy of TSFMs for practical, data-constrained building energy management systems, enabling improved decision-making in pursuit of energy efficiency and sustainability.
评论: 初步版本出现在 NeurIPS TSALM 工作坊:https://neurips.cc/virtual/2024/103019
主题: 机器学习 (cs.LG)
引用方式: arXiv:2506.00630 [cs.LG]
  (或者 arXiv:2506.00630v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2506.00630
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Ankush Chakrabarty [查看电子邮件]
[v1] 星期六, 2025 年 5 月 31 日 16:38:29 UTC (144 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-06
切换浏览方式为:
cs

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号