Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2507.14056

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2507.14056 (cs)
[提交于 2025年7月18日 ]

标题: 基于去甲肾上腺素的增益调制减少联合训练中的稳定性差距

标题: Noradrenergic-inspired gain modulation attenuates the stability gap in joint training

Authors:Alejandro Rodriguez-Garcia, Anindya Ghosh, Srikanth Ramaswamy
摘要: 最近在持续学习领域的研究发现,当吸收新任务时,对已掌握任务的性能会出现暂时下降,这被称为稳定性差距。 这种动态与持续学习的目标相矛盾,揭示了在减轻遗忘方面缺乏鲁棒性,并且值得注意的是,在理想联合损失制度下仍然存在。 在理想化的联合训练背景下研究这一差距对于将其与其他遗忘来源区分开来至关重要。 我们认为,这反映了任务边界处快速适应与稳健保持之间的不平衡,强调了需要研究能够在持续学习框架内协调可塑性和稳定性的机制。 生物大脑通过在多个时间尺度上同时运作来解决类似的困境,利用神经调节信号来调节突触可塑性。 然而,人工网络缺乏原生的多时间尺度动态,尽管像动量-SGD和Adam这样的优化器引入了隐式的時間尺度正则化,它们仍然表现出稳定性差距。 受蓝斑介导的去甲肾上腺素爆发的启发,在不确定性下暂时增强神经元增益以促进感官整合,我们提出了不确定性调制的增益动态——一种近似双时间尺度优化器的自适应机制,能够动态平衡知识整合与对先前巩固信息的最小干扰。 我们在联合训练下的MNIST和CIFAR基准的不同领域增量和类别增量变体上评估了我们的机制,证明不确定性调制的增益动态能够有效减弱稳定性差距。 最后,我们的分析阐明了增益调制如何复制皮层电路中的去甲肾上腺素功能,为减少稳定性差距和提高持续学习任务的性能提供了机制上的见解。
摘要: Recent studies in continual learning have identified a transient drop in performance on mastered tasks when assimilating new ones, known as the stability gap. Such dynamics contradict the objectives of continual learning, revealing a lack of robustness in mitigating forgetting, and notably, persisting even under an ideal joint-loss regime. Examining this gap within this idealized joint training context is critical to isolate it from other sources of forgetting. We argue that it reflects an imbalance between rapid adaptation and robust retention at task boundaries, underscoring the need to investigate mechanisms that reconcile plasticity and stability within continual learning frameworks. Biological brains navigate a similar dilemma by operating concurrently on multiple timescales, leveraging neuromodulatory signals to modulate synaptic plasticity. However, artificial networks lack native multitimescale dynamics, and although optimizers like momentum-SGD and Adam introduce implicit timescale regularization, they still exhibit stability gaps. Inspired by locus coeruleus mediated noradrenergic bursts, which transiently enhance neuronal gain under uncertainty to facilitate sensory assimilation, we propose uncertainty-modulated gain dynamics - an adaptive mechanism that approximates a two-timescale optimizer and dynamically balances integration of knowledge with minimal interference on previously consolidated information. We evaluate our mechanism on domain-incremental and class-incremental variants of the MNIST and CIFAR benchmarks under joint training, demonstrating that uncertainty-modulated gain dynamics effectively attenuate the stability gap. Finally, our analysis elucidates how gain modulation replicates noradrenergic functions in cortical circuits, offering mechanistic insights into reducing stability gaps and enhance performance in continual learning tasks.
评论: 18页,5图,1表,1伪代码
主题: 机器学习 (cs.LG) ; 人工智能 (cs.AI); 神经与认知 (q-bio.NC)
MSC 类: 68T05
引用方式: arXiv:2507.14056 [cs.LG]
  (或者 arXiv:2507.14056v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2507.14056
通过 DataCite 发表的 arXiv DOI(待注册)

提交历史

来自: Alejandro Rodriguez-Garcia [查看电子邮件]
[v1] 星期五, 2025 年 7 月 18 日 16:34:06 UTC (3,209 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • HTML(实验性)
  • TeX 源代码
  • 其他格式
许可图标 查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-07
切换浏览方式为:
cs
cs.AI
q-bio
q-bio.NC

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号