多特征值得代价函数和梯度下降法和单特征值的差不多,唯一需要多做的一步是特征值缩放。
下面为特征缩放函数来标准化数据:
def normalization(data):
data = np.array(data)
mean = np.mean(data, axis=0) #求每一列的均值
s = np.sqrt(np.var(data, axis=0)) #标准差
for i in np.arange(0, data.shape[0]):
data[i] = (data[i] - mean)/s
print (data[0] - mean)/s
return data
将特征缩放后的数据整理
iters = 10000
alpha = 0.001
theta = np.zeros(3)
x = data[:, 0:2]
y = data[:, -1]
x = np.hstack((np.ones((x.shape[0], 1)), x))
梯度下降法同单特征值的函数
theta, j = gridientSolves(theta, x, y, iters, alpha)
fig, ax = plt.subplots()
ax.plot(np.arange(1, iters+1), j)
ax.set_title('The the curve between cost value and iteration times')
plt.show()
如图所示: