人工智能几个常用卷积神经网络
AlexNet
卷积神将网络的计算公式为:
N=(W-F+2P)/S+1
其中N:输出大小
W:输入大小
F:卷积核大小
P:填充值的大小
S:步长大小
链接: link.
总结一句话:卷积后下一输出层的深度与卷积核个数相同,输出层大小(即长宽)由上述公式计算,s,p,f均为卷积核的属性。
全连接层
即与用和原输入层大小、深度完全一致的卷积核进行卷积,形成11x的全连接层(即展开),其中x由卷积核的层数决定。(写代码时也可以直接展开为一维)
1*1卷积核的作用
不改变输入层的大小,但改变输入和输出的深度的不同,在复杂神经网络或者简化神经网络时,有特殊效果。
池化层作用
池化层不是卷积运算,只是为了在不失去特征的同时减小输出层,降低过拟合,使网络经量普世。
参数计算(也就是权重)
参数就是卷积核所有数字的个数加b的个数
我们只需要把每个filter的参数累加起来,当然,不要忘了加上bias。