计算机科学 > 机器学习
[提交于 2025年6月13日
]
标题: ST-MTM:具有季节性趋势分解的掩码时间序列建模用于时间序列预测
标题: ST-MTM: Masked Time Series Modeling with Seasonal-Trend Decomposition for Time Series Forecasting
摘要: 预测复杂的时序数据是一个重要但具有挑战性的问题,涉及各种工业应用。 最近,提出了一种掩码时序建模方法,通过从未被掩码的段中重建被掩码的段,以有效建模时间依赖性。 然而,由于时序中的语义信息涉及由多个时序组件生成的复杂时间变化,简单地掩码原始时序会忽略固有的语义结构,这可能导致MTM学习到原始数据中存在的虚假时间模式。 为了捕捉不同的时间语义,我们表明掩码建模技术应通过分解方法来处理纠缠模式。 具体来说,我们提出了ST-MTM,一种具有季节趋势分解的掩码时序建模框架,其中包括一种新的针对季节趋势成分的掩码方法,该方法结合了每个成分的不同时间变化。 ST-MTM对季节成分使用周期掩码策略,根据固有的多周期性生成多个掩码季节序列,并对趋势成分使用子序列掩码策略,以掩码共享相似变化的时间区域。 所提出的掩码方法为学习复杂的时间变化和依赖关系提供了一个有效的预训练任务。 此外, ST-MTM引入了一个对比学习任务,通过增强多个掩码季节表示之间的上下文一致性来支持掩码建模。 实验结果表明,与现有的掩码建模、对比学习和监督预测方法相比,我们提出的ST-MTM在预测性能上始终表现出色。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.