文件名称:Deep-Learning-Questions-for-Interviews
文件大小:3KB
文件格式:ZIP
更新时间:2024-05-18 23:19:46
深度学习中有趣和有趣的面试方式 交叉熵是否比l2损失好? 与S形激活一起使用时,交叉熵在学习上更好(更快)。 这是因为交叉熵激活的导数在反向传播期间抵消了S形导数。 由于S形导数在1和0处饱和,并且减慢了训练速度,因此当S形导数项的导数被取消时,学习会更快,并且可以防止梯度问题消失。 完全删除池后会发生什么? 删除池有什么好处? 最大池化的优点是什么? 合并的优点:合并有助于平移不变性。 合并导致输入图像的较大部分在以后的层中表示。 如果没有池,则网络将学习其自己的空间池,因为通常池层没有参数。 零填充的作用是什么? 零填充用于不丢失边界中的像素(信息),并使输出特征图固定尺寸。 什么是1x1卷积?它们如何提供帮助? 1x1卷积可通过减少过滤器大小的数量来帮助减少参数的数量。 它主要用于Inception网络。 如果输入为WXHX F1,则经过F2 1X1滤波后,输出将为WXHX
【文件预览】:
Deep-Learning-Questions-for-Interviews-master
----README.md(5KB)