Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2003.03033

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2003.03033 (cs)
[提交于 2020年3月6日 ]

标题: 神经网络剪枝的现状如何?

标题: What is the State of Neural Network Pruning?

Authors:Davis Blalock, Jose Javier Gonzalez Ortiz, Jonathan Frankle, John Guttag
摘要: 神经网络剪枝——通过移除参数来减小网络规模的任务——近年来已成为大量研究的主题。 我们对文献进行了元分析,包括对剪枝方法的概述以及文献中的一致发现。 在汇总81篇论文的结果并在受控条件下剪枝数百个模型后,我们最明确的发现是,该领域缺乏标准化的基准和指标。 这种不足相当严重,以至于很难相互比较剪枝技术,或确定过去三十年该领域取得了多少进展。 为了解决这种情况,我们指出了当前实践中的问题,提出了具体的解决方案,并引入了ShrinkBench,这是一个开源框架,用于促进剪枝方法的标准化评估。 我们使用ShrinkBench比较了各种剪枝技术,并表明其全面的评估可以防止在比较剪枝方法时出现常见陷阱。
摘要: Neural network pruning---the task of reducing the size of a network by removing parameters---has been the subject of a great deal of work in recent years. We provide a meta-analysis of the literature, including an overview of approaches to pruning and consistent findings in the literature. After aggregating results across 81 papers and pruning hundreds of models in controlled conditions, our clearest finding is that the community suffers from a lack of standardized benchmarks and metrics. This deficiency is substantial enough that it is hard to compare pruning techniques to one another or determine how much progress the field has made over the past three decades. To address this situation, we identify issues with current practices, suggest concrete remedies, and introduce ShrinkBench, an open-source framework to facilitate standardized evaluations of pruning methods. We use ShrinkBench to compare various pruning techniques and show that its comprehensive evaluation can prevent common pitfalls when comparing pruning methods.
评论: 发表于2020年机器学习与系统会议(MLSys 2020)论文集
主题: 机器学习 (cs.LG) ; 机器学习 (stat.ML)
引用方式: arXiv:2003.03033 [cs.LG]
  (或者 arXiv:2003.03033v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2003.03033
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Davis Blalock [查看电子邮件]
[v1] 星期五, 2020 年 3 月 6 日 05:06:12 UTC (425 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
stat.ML
< 上一篇   |   下一篇 >
新的 | 最近的 | 2020-03
切换浏览方式为:
cs
cs.LG
stat

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者

1 博客链接

(这是什么?)
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号