计算机科学 > 机器学习
[提交于 2025年5月30日
]
标题: 持续学习中重播的强大作用:理论视角
标题: Unlocking the Power of Rehearsal in Continual Learning: A Theoretical Perspective
摘要: 基于重放的方法通过在当前任务的新数据和过去数据的一个子集上同时存储和训练,展示了在连续学习(CL)中解决灾难性遗忘的优越性能。尽管这种并发重放策略被广泛使用,但这种方法是否总是最优的仍不清楚。受人类学习的启发,其中顺序重温任务有助于减轻遗忘,我们探索了与标准并发重放相比,顺序重放是否能为CL带来更大的好处。为了解决这个问题,我们在过参数化线性模型中对基于重放的CL进行了理论分析,比较了两种策略:1)并发重放,即将过去的数据和新数据一起训练;2)顺序重放,即先训练新数据,然后顺序重温过去的数据。通过明确刻画遗忘和泛化误差,我们证明了当任务相似度较低时,顺序重放的表现更好。这些见解进一步激发了一种新的混合重放方法,该方法同时训练相似任务并顺序重温不相似任务。我们对其遗忘和泛化性能进行了表征,并且我们的深度神经网络实验进一步证实了混合方法优于标准并发重放。这项工作提供了基于重放的CL的第一个全面的理论分析。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.