文件名称:神经网络梯度更新优化器详解笔记.docx
文件大小:1.88MB
文件格式:DOCX
更新时间:2023-04-29 19:44:14
optimization 深度学习 优化器 梯度下降 反向传播
这篇文章将按照时间线详细讲解各类深度学习优化器,包括常用与不常用的(动量、NAG、adam、Adagrad、adadelta、RMSprop、adaMax、Nadam、AMSGrad)本文档将对每个优化器进行更加清晰的讲解,包括数学表达式推导和现实含义,所以可以更容易理解每一个优化器,对于深度学习小白来说也可以很容易看懂