计算机科学 > 计算机视觉与模式识别
[提交于 2025年1月6日
]
标题: 一种结构无关的多目标权重共享压缩方法
标题: A Novel Structure-Agnostic Multi-Objective Approach for Weight-Sharing Compression in Deep Neural Networks
摘要: 深度神经网络在训练后会在内存中存储数百万甚至数十亿的权重,使得在嵌入式设备上部署内存密集型模型变得具有挑战性。 权重共享技术是一种流行的压缩方法,它使用更少的权重值并在网络中的特定连接之间共享。 在本文中,我们提出了一种基于多目标进化算法(MOEA)的压缩框架,该框架独立于神经网络架构、维度、任务和数据集。 我们使用大小相同的桶将网络权重量化为一个单一的代码本(查找表),以实现高效的权重表示。 使用MOEA,我们通过优化两个目标来搜索帕累托最优的$k$个桶。 然后,我们通过迭代合并技术对非支配帕累托前沿解进行处理,通过组合相邻的桶而不降低性能来减少桶的数量并提高压缩比。 我们的方法与模型和层无关,这意味着权重来自任何层的聚类中混合,本文中使用的统一量化方法具有$O(N)$复杂度,而不是像k-means这样的非统一量化方法,其复杂度为$O(Nkt)$。 此外,我们使用聚类中心作为共享权重值,而不是重新训练共享权重,这在计算上是昂贵的。 使用进化多目标优化的优势在于,它可以相对于性能和共享权重获得非支配的帕累托前沿解。 实验结果表明,我们可以将神经网络内存减少$13.72 \sim14.98 \times$在CIFAR-10上,$11.61 \sim 12.99\times$在CIFAR-100上,以及$7.44 \sim 8.58\times$在ImageNet上,展示了所提出的深度神经网络压缩框架的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.