Week5:Neural Network BackPropagation疑难点记录

时间:2025-01-10 12:33:08

Week5:Neural Network BackPropagation疑难点记录

1.这个neural network 的costfunction 看起来很复杂,其实把连加化简,就是上面的普通代价函数在神经网络的应用,只不过把每一层都加起来了。

Week5:Neural Network BackPropagation疑难点记录

Week5:Neural Network BackPropagation疑难点记录

为什么要初始化θ值?

Week5:Neural Network BackPropagation疑难点记录

Week5:Neural Network BackPropagation疑难点记录

Week5:Neural Network BackPropagation疑难点记录

后向传播涉及的公式的推导,把这些公式独立推导?

编程过程中的完整矩阵变换怎么变换的?