计算机科学 > 机器学习
[提交于 2025年1月21日
]
标题: 元稀疏性:通过元学习在多任务网络中学习最优稀疏结构
标题: Meta-Sparsity: Learning Optimal Sparse Structures in Multi-task Networks through Meta-learning
摘要: 本文提出了元稀疏性,这是一种学习模型稀疏性的框架,基本上是学习控制稀疏度的参数,使深度神经网络(DNN)在多任务学习(MTL)设置中能够自动生成最优的稀疏共享结构。 该方法允许在各种任务中动态学习稀疏模式,不同于传统稀疏方法严重依赖手动超参数调整。 受模型无关元学习(MAML)的启发,在元训练阶段通过基于惩罚的、通道级别的结构稀疏性来实现多任务场景下共享和最优稀疏参数的学习。 该方法通过移除不必要的参数提高了模型的有效性,并增强了其处理已见和未见过任务的能力。 通过在两个数据集NYU-v2和CelebAMask-HQ上进行的大量实验,严格评估了元稀疏性的有效性,涵盖了从像素级到图像级预测的各种任务。 结果表明,所提出的方法在许多任务中表现良好,表明其作为创建高效和适应性强的稀疏神经网络的多功能工具的潜力。 因此,这项工作提出了一种学习稀疏性的方法,为稀疏神经网络领域的研究做出了贡献,并指出了向简约模型方向研究的新方向。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.