计算机科学 > 机器学习
[提交于 2025年6月28日
]
标题: P$^2$U:高效模型分发的渐进精度更新
标题: P$^2$U: Progressive Precision Update For Efficient Model Distribution
摘要: 在带宽受限的环境中,高效的模型分发变得越来越关键。 在本文中,我们提出了一种简单而有效的方法,称为渐进精度更新(P$^2$U),以解决这个问题。 而不是传输原始的高精度模型,P$^2$U传输一个低比特精度的模型,同时传输一个表示原始高精度模型与传输的低精度版本之间差异的模型更新。 通过对各种模型架构的广泛实验,从小型模型($1 - 6$百万参数)到大型模型(超过$100$百万参数),并使用三个不同的数据集,例如胸部X光、PASCAL-VOC和CIFAR-100,我们证明了P$^2$U在准确性、带宽使用和延迟之间始终能实现更好的权衡。 此外,我们表明当带宽或启动时间是优先考虑的因素时,可以使用激进的量化(例如4位)而不会严重损害性能。 这些结果确立了P$^2$U作为在低资源环境下可扩展且高效的模型分发的有效且实用的解决方案,包括联邦学习、边缘计算和物联网部署。 鉴于P$^2$U补充了现有的压缩技术,并且可以与任何压缩方法一起实现,例如稀疏化、量化、剪枝等,改进的潜力甚至更大。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.