B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

时间:2024-04-12 13:38:59

深层神经网络(Deep L-layer neural network)

目前为止我们已经学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且你还学到了向量化,这在随机初始化权重时是很重要。

目前所要做的是把这些理念集合起来,就可以执行你自己的深度神经网络。

复习下前面21个笔记的内容:

逻辑回归,结构如下图左边。一个隐藏层的神经网络,结构下图右边:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

注意,神经网络的层数是这么定义的:从左到右,由0开始定义,比如上边右图,x_1、x_2、x_3,这层是第0层,这层左边的隐藏层是第1层,由此类推。

如下图左边是两个隐藏层的神经网络,右边是5个隐藏层的神经网络。(也就是说刚输入层不算一层神经网络,这个概念也记住哦,再次说明)

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

严格上来说逻辑回归也是一个一层的神经网络,而上边右图一个深得多的模型,浅与深仅仅是指一种程度。

记住以下要点:

有一个隐藏层的神经网络,就是一个两层神经网络。记住当我们算神经网络的层数时,我们不算输入层,我们只算隐藏层和输出层。

但是在过去的几年中,DLI(深度学习学院 deep learning institute)已经意识到有一些函数,只有非常深的神经网络能学会,而更浅的模型则办不到。尽管对于任何给定的问题很难去提前预测到底需要多深的神经网络,所以先去尝试逻辑回归,尝试一层然后两层隐含层,然后把隐含层的数量看做是另一个可以*选择大小的超参数,然后再保留交叉验证数据上评估,或者用你的开发集来评估。

我们再看下深度学习的符号定义:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

上图是一个四层的神经网络,有三个隐藏层。我们可以看到,

第一层(即左边数过去第二层,因为输入层是第0层)有5个神经元数目,第二层5个,第三层3个。

我们用L表示层数,上图:L=4,输入层的索引为“0”,第一个隐藏层n([1])=5,表示有5个隐藏神经元,同理n([2])=5,n([3])=3,n([4])=n([L])=1(输出单元为1)。而输入层,n([0])=n_x=3。

在不同层所拥有的神经元的数目,对于每层l都用a([l])来记作l层**后结果,我们会在后面看到在正向传播时,最终能你会计算出a([l])。

通过用**函数 g 计算z([l]),**函数也被索引为层数l,然后我们用w([l])来记作在l层计算z([l])值的权重。类似的,z([l])里的方程b([l])也一样。

最后总结下符号约定:

输入的特征记作x,但是x同样也是0层的**函数,所以x=a^([0])(你可以想象成输入层就是一个**函数)

最后一层的**函数,所以a^([L])是等于这个神经网络所预测的输出结果

前向传播和反向传播(Forward and backward propagation)

之前我们学习了构成深度神经网络的基本模块,比如每一层都有前向传播步骤以及一个相反的反向传播步骤,这次我们讲讲如何实现这些步骤。

先讲前向传播,输入a([l-1]),输出是a([l]),缓存为z([l]);

从实现的角度来说我们可以缓存下w([l])和b([l]),这样更容易在不同的环节中调用函数。

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

所以前向传播的步骤可以写成:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

向量化实现过程可以写成:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

前向传播需要喂入A^([0])也就是X(输入特征),来初始化;

初始化的是第一层的输入值。a^([0])对应于一个训练样本的输入特征,

而A^([0])对应于一整个训练样本的输入特征,所以这就是这条链的第一个前向函数的输入,重复这个步骤就可以从左到右计算前向传播。

下面讲反向传播的步骤:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

所以反向传播的步骤可以写成:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

式子(5)由式子(4)带入式子(1)得到,前四个式子就可实现反向函数。

向量化实现过程可以写成:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

总结一下:

B站吴恩达深度学习视频笔记(28)——深度神经网络说明以及向前传播向后传播实现

第一层你可能有一个ReLU**函数,

第二层为另一个ReLU**函数,

第三层可能是sigmoid函数(如果你做二分类的话),输出值为y,L(y, y)用来计算损失;这样你就可以向后迭代进行反向传播求导来求dw([3]),db([3]) ,dw^([2]) ,db^([2]) ,dw^([1]) ,db^([1])。

在计算的时候,缓存会把z^([1]) z^([2]) z([3])传递过来,然后回传da([2]),da^([1]) ,可以用来计算da([0]),但我们不会使用它,这里讲述了一个三层网络的前向和反向传播,还有一个细节没讲就是前向递归——用输入数据来初始化,那么反向递归(使用Logistic回归做二分类)——对A([l]) 求导。

上面可能有点晦涩难懂,猛地一看可能看不出什么来,但是仔细看几篇推导下还是有效果的,加油!

忠告:补补微积分和线性代数,多推导,多实践。