文件名称:tensorflow中训练模型不同的优化算法实现与异同
文件大小:26KB
文件格式:ZIP
更新时间:2022-01-29 10:09:40
—
在用深度学习进行模型训练的过程中,往往会根据自己模型情况选择不同的优化算法,这里将SGD,SGDM,NAG,AdaGrad,Adadelta,RMSProp,Adam,Nadam几乎全部的优化算法进行了数学原理的解释和代码实现,并最终在MNIST数据集中进行训练,直观看各自不同的效果。
【文件预览】:
优化算法汇总
----优化算法汇总_3.py(5KB)
----layers0.py(6KB)
----优化算法汇总_2.py(3KB)
----参考()
--------优化算法SGD.ipynb(16KB)
--------优化算法Adagrad.ipynb(11KB)
--------优化算法Adam.ipynb(11KB)
--------优化算法Momentum.ipynb(15KB)
--------优化算法Adadelta.ipynb(11KB)
--------优化算法RMSProp.ipynb(10KB)
----优化算法汇总_1.py(3KB)