计算机科学 > 机器学习
[提交于 2019年12月27日
]
标题: SoftAdapt:多部分损失函数的神经网络自适应损失权重技术
标题: SoftAdapt: Techniques for Adaptive Loss Weighting of Neural Networks with Multi-Part Loss Functions
摘要: 自适应损失函数的构建是一个活跃的研究领域,并且近年来随着深度学习的成功而广受欢迎。 然而,现有的自适应损失函数框架通常会遇到收敛速度慢以及对损失组件权重选择不佳的问题。 传统上,多部分损失函数的各个组成部分要么被赋予相等的权重,要么通过启发式方法确定权重,这些方法可以产生接近最优(或次优)的结果。 为了解决这个问题,我们提出了一组方法,称为 SoftAdapt,该方法基于组成损失的实时性能统计动态调整多部分损失函数的权重。 SoftAdapt 在数学上直观易懂,计算效率高且易于实现。 本文介绍了 SoftAdapt 的数学公式和伪代码,同时还展示了我们将该方法应用于图像重建(稀疏自动编码器)和合成数据生成(内省变分自动编码器)时的结果。
文献和引用工具
与本文相关的代码,数据和媒体
alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)
演示
推荐器和搜索工具
arXivLabs:与社区合作伙伴的实验项目
arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。
与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。
有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.