人工智能几个常用卷积神经网络

时间:2024-03-14 13:27:41

AlexNet

卷积神将网络的计算公式为:

N=(W-F+2P)/S+1

其中N:输出大小

W:输入大小

F:卷积核大小

P:填充值的大小

S:步长大小

链接: link.
总结一句话:卷积后下一输出层的深度与卷积核个数相同,输出层大小(即长宽)由上述公式计算,s,p,f均为卷积核的属性。

全连接层

即与用和原输入层大小、深度完全一致的卷积核进行卷积,形成11x的全连接层(即展开),其中x由卷积核的层数决定。(写代码时也可以直接展开为一维)

1*1卷积核的作用

不改变输入层的大小,但改变输入和输出的深度的不同,在复杂神经网络或者简化神经网络时,有特殊效果。

池化层作用

人工智能几个常用卷积神经网络
池化层不是卷积运算,只是为了在不失去特征的同时减小输出层,降低过拟合,使网络经量普世。

参数计算(也就是权重)

参数就是卷积核所有数字的个数加b的个数
我们只需要把每个filter的参数累加起来,当然,不要忘了加上bias。

创建卷积核时,卷积核人个数放在第四维空间。也即,是一个整体代码中是按这种整体来看的。