感知器算法--python实现

时间:2022-01-09 17:43:15

写在前面:

参考:

1  《统计学习方法》第二章感知机【感知机的概念、误分类的判断】   http://pan.baidu.com/s/1hrTscza

2   点到面的距离

3   梯度下降

4   NumPy-快速处理数据    属性shape:表示几行几列;   dot(a,b) 计算数组、矩阵的乘积

(为了理解神经网络,我们应该先理解神经网络的组成单元--神经元神经元也叫做感知器。)

感知器算法--python实现

感知器算法

感知器算法--python实现

Python实现

#coding:utf-8
import numpy as np class Perceptron(object):
def __init__(self):
self.study_step = 1 #学习步长即学习率
self.study_total = 11 #学习次数即训练次数
self.w_total = 1 #w更新次数
#对数据集进行训练
def train(self, T):
w = np.zeros(T.shape[1]-1) # 初始化权重向量为0 [权重都从0开始]
b = 0 # 初始化阈值为0
print ' W X W B'
#训练study_total次
for study in range(self.study_total):
w_before = w #训练前的w值
b_before = b #训练前的b值
#训练
for t in range(T.shape[0]):
# 计算实际的y值,其期望值为T[0][2]
X = T[t][0:T.shape[1]-1] #X的值
Y = T[t][T.shape[1]-1] #期望值
distin = Y*self.input_X(X, w, b)
#判断X是否是误分类点
if distin <= 0:
w = w + self.study_step*Y*X
b = b + self.study_step*Y
print 'w',self.w_total,': x',t+1,w[0:w.shape[0]], ' ', b
self.w_total = self.w_total + 1 #经过训练后w、b都不在变化,说明训练集中已没有误分类点,那么跳出循环
if w_before is w and b_before == b:
print '训练后,得到w、b:', w[0:w.shape[0]], ' ', b
break
return w,b
#得出w*x+b的值
def input_X(self, X, w, b):
return np.dot(X,w) + b #wwww** #由X去预测Y值
def prediction(self, X, w, b):
Y = self.input_X(X, w, b)
return np.where(Y >= 0, 1, -1) if __name__ == '__main__':
per = Perceptron()
#训练数据集,x1=(3,3),x2=(4,3),x3=(1,1), 对应于y1=1,y2=1,y3=-1
T = np.array([[3,3,1],[4,3,1],[1,1,-1]]) #进行训练的数据集
w,b = per.train(T) #经过训练得到w\b X = np.array([3, 3]) # 对X进行预测
Y = per.prediction(X,w,b) #得到X的预测值
print 'X预测得到Y:',Y

  

感知器算法--python实现

感知器算法--python实现

感知器算法--python实现