线性回归练习题之多特征值

时间:2023-01-28 00:15:35

多特征值得代价函数和梯度下降法和单特征值的差不多,唯一需要多做的一步是特征值缩放。
下面为特征缩放函数来标准化数据:
x = x μ S ( μ S = )

def normalization(data):
    data = np.array(data)
    mean = np.mean(data, axis=0) #求每一列的均值
    s = np.sqrt(np.var(data, axis=0)) #标准差
    for i in np.arange(0, data.shape[0]):
        data[i] = (data[i] - mean)/s 
    print (data[0] - mean)/s
    return data

将特征缩放后的数据整理

iters = 10000
alpha = 0.001
theta = np.zeros(3)
x = data[:, 0:2]
y = data[:, -1]
x = np.hstack((np.ones((x.shape[0], 1)), x))

梯度下降法同单特征值的函数

theta, j = gridientSolves(theta, x, y, iters, alpha)

fig, ax = plt.subplots()
ax.plot(np.arange(1, iters+1), j)
ax.set_title('The the curve between cost value and iteration times')
plt.show()

如图所示:
线性回归练习题之多特征值