tensorflow神经网络与单层手写字识别

时间:2023-03-09 17:22:54
tensorflow神经网络与单层手写字识别

1、知识点

"""
1、基础知识:
1、神经网络结构:1、输入层 2、隐含层 3、全连接层(类别个数=全连接层神经元个数)+softmax函数 4、输出层
2、逻辑回归:只能解决二分类问题
3、线性回归:只能用于预测
4、softmax:有多少类别,就会有多少个输出
5、信息熵:信息熵越大,不确定性越大,信息熵越小,则不确定小,属于的类别也更加清晰
6、softmax公式: Si = e^i / (e^1+....+e^j) ,用于计算概率值。 特点:所有类别概率值相加等于1
7、损失函数:交叉熵损失 ,一个样本就有一个交叉熵损失。公式: H(y) = -y'log y(i)对i的求和值,其中y'为真实结果,y(i)为预测结果,一 2、感知机:有n个输入数据,通过权重与各数据之间的计算和,比较激活函数结果,得出输出
应用场景:很容易解决与、或、非问题,即二分类问题 3、神经网络的种类:
1、基础神经网络:单层感知器,线性神经网络,BP神经网络,Hopfield神经网络等
2、进阶神经网络:玻尔兹曼机,受限玻尔兹曼机,递归神经网络等
3、深度神经网络:深度置信网络,卷积神经网络,循环神经网络,LSTM网络等 4、神经网络特点:
1、输入向量的维度和输入神经元的个数相同
2、每个连接都有个权值
3、同一层神经元之间没有连接
4、由输入层,隐层,输出层组成
5、第N层与第N-1层的所有神经元连接,也叫全连接 5、神经网络API模块:
1、tf.nn:提供神经网络相关操作的支持,包括卷积操作(conv)、池化操作(pooling)、归一化、loss、分类操作、embedding、RNN、Evaluation.
2、tf.layers:主要提供的高层的神经网络,主要和卷积相关的,对tf.nn进一步封装。
3、tf.contrib:tf.contrib.layers提供将计算图中的网络层、正则化、摘要操作,是构建计算图的高级操作,但是tf.contrib包不稳定以及一些实验代码 算法对比总结:
算法 策略 优化
线性回归 均方误差 梯度下降 预测
逻辑回归 对数似然损失 梯度下降 二分类
神经网络 交叉熵损失 反响传播算法(就是梯度下降算法) 单层(全连接层)实现手写数字识别:
1、定义数据占位符,针对特征值和目标值矩阵
特征值[None,784] 目标值[None,10]
2、建立模型
随机初始化权重和偏置 y_predict = tf.matmul(x,w)+b
3、计算损失
loss平均样本损失(交叉熵损失)
4、梯度下降优化(梯度下降算法)
"""

2、代码

# coding = utf-8
import tensorflow as tf
from tensorflow.examples.tutorials.mnist import input_data FLAGS = tf.app.flags.FLAGS
tf.app.flags.DEFINE_integer("IS_TRAIN",1,"指定程序是预测还是训练")
def fullconnnected():
"""
全连接层
:return: """
#获取数据
minist = input_data.read_data_sets("./data/mnist/input_data/", one_hot=True) # 1、建立数据占位符 x[None,784] y_true[None,10]
with tf.variable_scope("data"):
x = tf.placeholder(tf.float32,[None,784])
y_true = tf.placeholder(tf.int32,[None,10])
#2、建立一个全连接层的神经网络
with tf.variable_scope("fc_model"):
#随机初始化权重和偏置
weight = tf.Variable(tf.random_normal([784,10],mean=0.0,stddev=1.0),name="w")
bias = tf.Variable(tf.constant(0.0,shape=[10])) #预测None个样本的输出结果
y_predict = tf.matmul(x,weight)+bias #3、计算交叉熵损失
with tf.variable_scope("cross_entropy"):
#求取平均交叉熵损失
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y_true,logits=y_predict)) #4、梯度下降求出损失
with tf.variable_scope("optimizer"):
train_op = tf.train.GradientDescentOptimizer(0.2).minimize(loss) #5、计算准确率
with tf.variable_scope("accuracy"):
equal_list = tf.equal(tf.argmax(y_true,1),tf.argmax(y_predict,1))
#equal_list None个样本 [1,0,1,1,0,0,0......]
accuracy = tf.reduce_mean(tf.cast(equal_list,tf.float32)) #6、收集变量
tf.summary.scalar("losses",loss)
tf.summary.scalar("acc",accuracy)
tf.summary.histogram("weights",weight)
tf.summary.histogram("baises",bias)
merge = tf.summary.merge_all() #7、初始化变量
init_op = tf.global_variables_initializer() #8、创建一个Saver
saver = tf.train.Saver() #9、开启会话进行训练
with tf.Session() as sess:
#初始化变量
sess.run(init_op)
fileWriter = tf.summary.FileWriter("./event/",graph=sess.graph) if FLAGS.IS_TRAIN == 1:
#迭代步数训练,更新参数预测
for i in range(2000):
#取出数据的特征自和目标值
mnist_x,mnist_y =minist.train.next_batch(50)
#训练
sess.run(train_op,feed_dict={x: mnist_x, y_true:mnist_y})
summary = sess.run(merge,feed_dict={x: mnist_x, y_true:mnist_y})
fileWriter.add_summary(summary,i)
print("训练第%d步,准确率为:%f" %(i,sess.run(accuracy,feed_dict={x: mnist_x, y_true:mnist_y})) )
#保存模型
saver.save(sess,"./ckpt/fc_model")
else:
#如果是0,那么做预测
for i in range(10):
saver.restore(sess,"./ckpt/fc_model")
#每次测试一张图片
x_test,y_test = minist.test.next_batch(1)
print("第%d张图片,手写数字是%d,,预测结果是%d" %(
i,
tf.argmax(y_test,1).eval(),
tf.argmax(sess.run(y_predict,feed_dict={x: x_test, y_true:y_test}),1).eval()
))
return None if __name__ == '__main__':
"测试:python 简单神经网络介绍.py --IS_TRAIN=0"
#默认训练
fullconnnected()
pass