1、声明1:可以通过将所有权重初始化为0 来训练网络。
声明2:可以通过将偏差初始化为0来很好地训练网络
以上哪些陈述是真实的?
A 1对2错
B 1错2对
C 1和2都对
D 1和2都错
正确答案是: B
解析:即使所有的偏差都为零,神经网络也有可能学习。 另一方面,如果所有的权重都是零; 神经网络可能永远不会学习执行任务。
具体可查看这里博客
2、对于MLP,输入层中的节点数为10,隐藏层为5.从输入层到隐藏层的最大连接数是
A 50
B 小于50
C 超过50
D 这是一个任意值
正确答案是:A
解析:由于MLP是完全连通的有向图,因此连接数是输入层和隐藏层中节点数的乘积。
3、输入图像已被转换为大小为28×28的矩阵和大小为7×7的步幅为1的核心/滤波器。卷积矩阵的大小是多少?
A 22 X 22
B 21 X 21
C 28 X 28
D 7 X 7
正确答案是:A
解析:解决方案:A 卷积矩阵的大小由C =((I-F + 2P)/ S)+1给出,其中C是卷积矩阵的大小,I是输入矩阵的大小,F是滤波器的大小矩阵和P填充应用于输入矩阵。这里P = 0,I = 28,F = 7和S = 1。答案是22。
4、在一个简单的MLP模型中,输入层有8个神经元,隐藏层有5个神经元,输出层有1个神经元。隐藏输出层和输入隐藏层之间的权重矩阵的大小是多少?
A [1 X 5],[5 X 8]
B [8×5],[1×5]
C [5×8],[5×1]
D [5×1],[8×5]
正确答案是:D
解析:任何层1和层2之间的权重的大小由[层1中的节点X 2层中的节点
5、如果我们希望预测n个类(p1,p2 ... pk)的概率使得所有n的p的和等于1,那么下列哪个函数可以用作输出层中的**函数?
A Softmax
B ReLu
C Sigmoid
D Tanh
解析:Softmax函数的形式是所有k的概率之和总和为1。
6、假设一个具有 3 个神经元和输入为 [1, 2, 3] 的简单 MLP 模型。输入神经元的权重分别为 4, 5 和 6。假设**函数是一个线性常数值 3 (**函数为:y = 3x)。输出是什么?
A 32
B 643
C 96
D 48
正确答案是:C
解析:输出将被计算为3(1 * 4 + 2 * 5 + 6 * 3)= 96
7、在输出层不能使用以下哪种**函数来分类图像?
A sigmoid
B Tanh
C ReLU
D If(x> 5,1,0)
正确答案是:C
解析: ReLU在0到无限的范围内提供连续输出。但是在输出层中,我们需要一个有限范围的值。
8、在神经网络中,每个参数可以有不同的学习率。这句话是对还是错
A 对
B 错
正确答案是:A
解析:是的,我们可以定义每个参数的学习率,并且它可以与其他参数不同。
9、使用批量归一化可以解决以下哪种神经网络的训练?
A 过拟合Overfitting
B Restrict activations to become too high or low
C 训练过慢
D B和C都有
正确答案是:D
10、对于二元分类问题,您会选择以下哪种架构?
A 1
B 2
C 任何一个
D 都不用
正确答案是:C
解析:我们可以使用一个神经元作为二值分类问题的输出或两个单独的神经元。