计算机科学 > 机器学习
            [提交于 2020年3月11日
            
             (v1)
            
            
              ,最后修订 2021年1月2日 (此版本, v2)]
          
          标题: 通过在小批量数据上使用后果主义权重更新改进反向传播算法
标题: Improving the Backpropagation Algorithm with Consequentialism Weight Updates over Mini-Batches
摘要: 许多尝试旨在改进自适应滤波器,这些滤波器也可以用于改进反向传播(BP)。 归一化最小均值平方误差(NLMS)是从最小均值平方误差(LMS)派生出的最成功算法之一。 然而,其扩展到多层神经网络之前尚未发生。 在这里,我们首先表明可以将多层神经网络视为自适应滤波器的堆叠。 此外,我们引入了比仿射投影算法(APA)中复杂的几何解释更易理解的NLMS解释,这种解释可以轻松推广到卷积神经网络,并且在小批量训练中表现更好。 通过这种新观点,我们引入了一种更好的算法,该算法可以预测并纠正反向传播中发生的不利后果,甚至在它们发生之前就进行修正。 最后,所提出的方法与随机梯度下降(SGD)兼容,并适用于基于动量的导数,如 RMSProp、Adam 和 NAG。 我们的实验表明了该算法在深度神经网络训练中的有效性。
文献和引用工具
与本文相关的代码,数据和媒体
            alphaXiv (什么是 alphaXiv?)
          
        
            CatalyzeX 代码查找器 (什么是 CatalyzeX?)
          
        
            DagsHub (什么是 DagsHub?)
          
        
            Gotit.pub (什么是 GotitPub?)
          
        
            Hugging Face (什么是 Huggingface?)
          
        
            带有代码的论文 (什么是带有代码的论文?)
          
        
            ScienceCast (什么是 ScienceCast?)
          
        演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.
 
  