计算机科学 > 机器学习
[提交于 2025年8月9日
]
标题: 使用混合Transformer-自编码器框架改进实时概念漂移检测
标题: Improving Real-Time Concept Drift Detection using a Hybrid Transformer-Autoencoder Framework
摘要: 在应用机器学习中,概念漂移(即数据分布的渐进或突然变化)可能会显著降低模型性能。 典型的检测方法,如统计检验或基于重构的模型,通常是被动的,并且对早期检测不够敏感。 我们的研究提出了一种由Transformer和自编码器组成的混合框架,以建模复杂的时序动态并提供在线漂移检测。 我们创建了一种独特的信任得分方法,该方法包括(1)统计和基于重构的漂移指标,更具体地说,是PSI、JSD、Transformer-AE误差,(2)预测不确定性,(3)规则违反情况,以及(4)与信任得分定义的组合指标相一致的分类器误差趋势。 使用带有合成漂移的时间序列航空乘客数据集,我们的模型在整体上以及在不同检测阈值下,相比基线方法,在灵敏度和可解释性方面都能更好地检测漂移,并为实际机器学习中的实时漂移检测提供了一个强大的流程。 我们使用了一个时间序列的航空乘客数据集,其中逐步注入了期望的漂移刺激,例如后期批次中排列的机票价格,分为10个时间段[1]。在数据中,我们的结果支持Transformer-自编码器比文献中常用的自编码器更早且更敏感地检测漂移,并在更高的错误率和逻辑违规情况下提供了改进的建模。 因此,开发了一个稳健的框架,以可靠地监控概念漂移。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.