Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2003.14304v1

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2003.14304v1 (cs)
[提交于 2020年3月27日 ]

标题: 在线学习在交通数据上用于拥塞水平预测的新观点

标题: New Perspectives on the Use of Online Learning for Congestion Level Prediction over Traffic Data

Authors:Eric L. Manibardo, Ibai Laña, Jesus L. Lobo, Javier Del Ser
摘要: 这项工作专注于时间序列数据的分类。 当时间序列由非平稳现象生成时,与要预测的类相关的序列模式可能会随时间演变(概念漂移)。 因此,旨在学习此模式的预测模型可能最终过时,从而无法维持实际使用所需的性能水平。 为了克服这种模型退化,在线学习方法从随时间到来的新数据样本中逐步学习,并通过实施各种概念漂移策略来适应数据流中的变化。 在本文中,我们详细阐述了在线学习方法在基于交通速度时间序列数据预测道路拥堵水平的适用性。 我们得出了关于当预测范围增加时性能退化的有趣见解。 与大多数文献中的做法相反,我们提供了在设计和调整学习模型之前评估类别分布的重要性证据。 这之前的练习可能暗示了在目标下不同拥堵水平的可预测性。 实验结果基于在西雅图(美国)部署的感应线圈捕获的真实交通速度数据进行讨论。 分析了几种在线学习方法,从传统的增量学习算法到更复杂的深度学习模型。 如报告的结果所示,当增加预测范围时,所有模型的性能由于类别沿时间的分布而严重退化,这支持了我们关于在模型设计之前分析此分布重要性的主张。
摘要: This work focuses on classification over time series data. When a time series is generated by non-stationary phenomena, the pattern relating the series with the class to be predicted may evolve over time (concept drift). Consequently, predictive models aimed to learn this pattern may become eventually obsolete, hence failing to sustain performance levels of practical use. To overcome this model degradation, online learning methods incrementally learn from new data samples arriving over time, and accommodate eventual changes along the data stream by implementing assorted concept drift strategies. In this manuscript we elaborate on the suitability of online learning methods to predict the road congestion level based on traffic speed time series data. We draw interesting insights on the performance degradation when the forecasting horizon is increased. As opposed to what is done in most literature, we provide evidence of the importance of assessing the distribution of classes over time before designing and tuning the learning model. This previous exercise may give a hint of the predictability of the different congestion levels under target. Experimental results are discussed over real traffic speed data captured by inductive loops deployed over Seattle (USA). Several online learning methods are analyzed, from traditional incremental learning algorithms to more elaborated deep learning models. As shown by the reported results, when increasing the prediction horizon, the performance of all models degrade severely due to the distribution of classes along time, which supports our claim about the importance of analyzing this distribution prior to the design of the model.
主题: 机器学习 (cs.LG) ; 信号处理 (eess.SP); 机器学习 (stat.ML)
引用方式: arXiv:2003.14304 [cs.LG]
  (或者 arXiv:2003.14304v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2003.14304
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Eric L. Manibardo [查看电子邮件]
[v1] 星期五, 2020 年 3 月 27 日 09:44:57 UTC (291 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2020-03
切换浏览方式为:
cs
eess
eess.SP
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号