1 **函数
1.1 阶跃函数
python代码实现:
def step_function(x):
y = x > 0
return y.astype(np.int)
对NumPy数组进行不等号运算后 ,数组的各个元素生成一个布尔型数组。
astype()方法转换NumPy数组的类型,数组y的元素类型从布尔型转换为int型。
1.2 sigmoid 函数
sigmoid 函数数学公式:
python代码实现:
def sigmoid(x):
return 1 / (1 + np.exp(-x))
1.3 ReLU函数
ReLU:Rectified Linear Unit
sigmoid 函数数学公式:
python代码实现:
def relu(x):
return np.maximum(0, x)
2 三层神经网络的实现
2.1 神经网络 符号含义
2.2 各层间信号传递的实现
神经元“1”表示偏置,其右下角的索引号只有一个。这是因为前一层的偏置神经元(神经元“1”)只有一个。
用数学式表示,通过加权信号和偏置的和按如下方式进行计算
使用矩阵的乘法运算,则可以将第1层的加权和表示成下面的式子
其中、、、、如下所示。
,, ,
表示隐藏层的加权和(加权信号和偏置的总和)
表示**函数转换后的信号
表示**函数,这里使用sigmoid 函数
这里使用identity_function()恒等函数作为输出层的**函数,记为。
三层网络python代码实现:
import numpy as np
def sigmoid(x):
return 1 / (1 + np.exp(-x))
def identity_function(x):
return x
def init_network():
network = {}
network['W1'] = np.array([[0.1, 0.3, 0.5], [0.2, 0.4, 0.6]])
network['b1'] = np.array([0.1, 0.2, 0.3])
network['W2'] = np.array([[0.1, 0.4], [0.2, 0.5], [0.3, 0.6]])
network['b2'] = np.array([0.1, 0.2])
network['W3'] = np.array([[0.1, 0.3], [0.2, 0.4]])
network['b3'] = np.array([0.1, 0.2])
return network
def forward(network, x):
W1, W2, W3 = network['W1'], network['W2'], network['W3']
b1, b2, b3 = network['b1'], network['b2'], network['b3']
a1 = np.dot(x, W1) + b1
z1 = sigmoid(a1)
a2 = np.dot(z1, W2) + b2
z2 = sigmoid(a2)
a3 = np.dot(z2, W3) + b3
y = identity_function(a3) # 或者Y = A3
return y
network = init_network()
x = np.array([1.0, 0.5])
y = forward(network, x)
print(y) # [ 0.31682708 0.69627909]
softmax函数
公式如下: