Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2003.05164

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2003.05164 (cs)
[提交于 2020年3月11日 (v1) ,最后修订 2021年1月2日 (此版本, v2)]

标题: 通过在小批量数据上使用后果主义权重更新改进反向传播算法

标题: Improving the Backpropagation Algorithm with Consequentialism Weight Updates over Mini-Batches

Authors:Naeem Paeedeh, Kamaledin Ghiasi-Shirazi
摘要: 许多尝试旨在改进自适应滤波器,这些滤波器也可以用于改进反向传播(BP)。 归一化最小均值平方误差(NLMS)是从最小均值平方误差(LMS)派生出的最成功算法之一。 然而,其扩展到多层神经网络之前尚未发生。 在这里,我们首先表明可以将多层神经网络视为自适应滤波器的堆叠。 此外,我们引入了比仿射投影算法(APA)中复杂的几何解释更易理解的NLMS解释,这种解释可以轻松推广到卷积神经网络,并且在小批量训练中表现更好。 通过这种新观点,我们引入了一种更好的算法,该算法可以预测并纠正反向传播中发生的不利后果,甚至在它们发生之前就进行修正。 最后,所提出的方法与随机梯度下降(SGD)兼容,并适用于基于动量的导数,如 RMSProp、Adam 和 NAG。 我们的实验表明了该算法在深度神经网络训练中的有效性。
摘要: Many attempts took place to improve the adaptive filters that can also be useful to improve backpropagation (BP). Normalized least mean squares (NLMS) is one of the most successful algorithms derived from Least mean squares (LMS). However, its extension to multi-layer neural networks has not happened before. Here, we first show that it is possible to consider a multi-layer neural network as a stack of adaptive filters. Additionally, we introduce more comprehensible interpretations of NLMS than the complicated geometric interpretation in affine projection algorithm (APA) for a single fully-connected (FC) layer that can easily be generalized to, for instance, convolutional neural networks and also works better with mini-batch training. With this new viewpoint, we introduce a better algorithm by predicting then emending the adverse consequences of the actions that take place in BP even before they happen. Finally, the proposed method is compatible with stochastic gradient descent (SGD) and applicable to momentum-based derivatives such as RMSProp, Adam, and NAG. Our experiments show the usefulness of our algorithm in the training of deep neural networks.
主题: 机器学习 (cs.LG) ; 机器学习 (stat.ML)
引用方式: arXiv:2003.05164 [cs.LG]
  (或者 arXiv:2003.05164v2 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2003.05164
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Naeem Paeedeh [查看电子邮件]
[v1] 星期三, 2020 年 3 月 11 日 08:45:36 UTC (4,784 KB)
[v2] 星期六, 2021 年 1 月 2 日 03:41:00 UTC (4,436 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2020-03
切换浏览方式为:
cs
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号