Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.00013

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.00013 (cs)
[提交于 2025年6月13日 ]

标题: ST-MTM:具有季节性趋势分解的掩码时间序列建模用于时间序列预测

标题: ST-MTM: Masked Time Series Modeling with Seasonal-Trend Decomposition for Time Series Forecasting

Authors:Hyunwoo Seo, Chiehyeon Lim
摘要: 预测复杂的时序数据是一个重要但具有挑战性的问题,涉及各种工业应用。 最近,提出了一种掩码时序建模方法,通过从未被掩码的段中重建被掩码的段,以有效建模时间依赖性。 然而,由于时序中的语义信息涉及由多个时序组件生成的复杂时间变化,简单地掩码原始时序会忽略固有的语义结构,这可能导致MTM学习到原始数据中存在的虚假时间模式。 为了捕捉不同的时间语义,我们表明掩码建模技术应通过分解方法来处理纠缠模式。 具体来说,我们提出了ST-MTM,一种具有季节趋势分解的掩码时序建模框架,其中包括一种新的针对季节趋势成分的掩码方法,该方法结合了每个成分的不同时间变化。 ST-MTM对季节成分使用周期掩码策略,根据固有的多周期性生成多个掩码季节序列,并对趋势成分使用子序列掩码策略,以掩码共享相似变化的时间区域。 所提出的掩码方法为学习复杂的时间变化和依赖关系提供了一个有效的预训练任务。 此外, ST-MTM引入了一个对比学习任务,通过增强多个掩码季节表示之间的上下文一致性来支持掩码建模。 实验结果表明,与现有的掩码建模、对比学习和监督预测方法相比,我们提出的ST-MTM在预测性能上始终表现出色。
摘要: Forecasting complex time series is an important yet challenging problem that involves various industrial applications. Recently, masked time-series modeling has been proposed to effectively model temporal dependencies for forecasting by reconstructing masked segments from unmasked ones. However, since the semantic information in time series is involved in intricate temporal variations generated by multiple time series components, simply masking a raw time series ignores the inherent semantic structure, which may cause MTM to learn spurious temporal patterns present in the raw data. To capture distinct temporal semantics, we show that masked modeling techniques should address entangled patterns through a decomposition approach. Specifically, we propose ST-MTM, a masked time-series modeling framework with seasonal-trend decomposition, which includes a novel masking method for the seasonal-trend components that incorporates different temporal variations from each component. ST-MTM uses a period masking strategy for seasonal components to produce multiple masked seasonal series based on inherent multi-periodicity and a sub-series masking strategy for trend components to mask temporal regions that share similar variations. The proposed masking method presents an effective pre-training task for learning intricate temporal variations and dependencies. Additionally, ST-MTM introduces a contrastive learning task to support masked modeling by enhancing contextual consistency among multiple masked seasonal representations. Experimental results show that our proposed ST-MTM achieves consistently superior forecasting performance compared to existing masked modeling, contrastive learning, and supervised forecasting methods.
评论: 被KDD 2025研究轨道接受
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 机器学习 (stat.ML)
引用方式: arXiv:2507.00013 [cs.LG]
  (或者 arXiv:2507.00013v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.00013
通过 DataCite 发表的 arXiv DOI
相关 DOI: https://doi.org/10.1145/3690624.3709254
链接到相关资源的 DOI

提交历史

来自: Hyunwoo Seo [查看电子邮件]
[v1] 星期五, 2025 年 6 月 13 日 04:06:47 UTC (841 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号