计算机科学 > 机器学习
[提交于 2025年8月3日
]
标题: OccamVTS:将视觉模型压缩至1%参数用于时间序列预测
标题: OccamVTS: Distilling Vision Models to 1% Parameters for Time Series Forecasting
摘要: 时间序列预测对于多种应用至关重要,最近的方法利用大型视觉模型(LVMs)通过视觉表示来捕捉时间模式。 我们发现,尽管视觉模型提高了预测性能,但其99%的参数对于时间序列任务是不必要的。 通过跨模态分析,我们发现时间序列与低级纹理特征一致,但不与高级语义一致,这可能会影响预测准确性。 我们提出了OccamVTS,这是一种知识蒸馏框架,将LVMs中的仅1%的预测信息提取到轻量级网络中。 使用预训练的LVMs作为优势教师,OccamVTS采用金字塔风格的特征对齐,结合相关性和特征蒸馏,以传递有益模式同时过滤语义噪声。 出乎意料的是,这种激进的参数减少通过消除对无关视觉特征的过拟合而提高了准确性,同时保留了必要的时间模式。 在多个基准数据集上的广泛实验表明,OccamVTS仅使用原始参数的1%就能持续达到最先进的性能,特别是在少样本和零样本场景中表现尤为出色。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.