1. Saver简介
训练完一个模型后,为了以后重复使用,通常希望保存训练的结果,这些结果指的是模型的参数,也就是神经网络中的各项权重值。以便下次迭代的训练或者用作测试。
Tensorflow针对这一需求提供了Saver类。 Saver类提供了向checkpoints文件保存和从checkpoints文件中恢复变量的相关方法。Checkpoints文件是一个二进制文件,它把变量名映射到对应的tensor值 。
为了避免填满整个磁盘,Saver可以自动的管理Checkpoints文件。例如,我们可以指定保存最近的N个Checkpoints文件。
2. Saver的应用
**2.1 训练阶段**
使用tf.train.Saver.save()方法保存模型
tf.train.Saver.save(sess, save_path, global_step=None, latest_filename=None, meta_graph_suffix='meta', write_meta_graph=True, write_state=True)
- sess: 表示当前会话,当前会话记录了当前的变量值。
- save_path: String类型,用于指定训练结果的保存路径。
- global_step:表示当前是第几步。如果提供的话,这个数字会添加到save_path后面,用于构建checkpoint文件。这个参数有助于我们区分不同训练阶段的结果。
训练完成后,当前目录底下会多出5个文件。
![这里写图片描述](https://img-blog.csdn.net/20180613111524633?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2RkeV9zd2VldHk=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
打开名为“checkpoint”的文件,可以看到保存记录,和最新的模型存储位置。
![这里写图片描述](https://img-blog.csdn.net/20180613111903173?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2RkeV9zd2VldHk=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
**2.2 测试验证阶段**
使用tf.train.Saver.restore方法恢复模型及变量
tf.train.Saver.restore(sess, save_path)
- sess: 表示当前会话,之前保存的结果将被加载入这个会话
- save_path: 同保存模型是用到的的save_path参数。
运行结果如下图所示,加载了之前训练的参数w和b的结果
3.Saver实例
import tensorflow as tf
import numpy as np
x = tf.placeholder(tf.float32, shape=[None, 1])
y = 4 * x + 4
w = tf.Variable(tf.random_normal([1], -1, 1))
b = tf.Variable(tf.zeros([1]))
y_predict = w * x + b
loss = tf.reduce_mean(tf.square(y - y_predict))
optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(loss)
#用于验证
isTrain = False
#用于训练
isTrain = True
train_steps = 100
checkpoint_steps = 50
checkpoint_dir = '/Users/LearningTensorflow/'
saver = tf.train.Saver() # defaults to saving all variables - in this case w and b
x_data = np.reshape(np.random.rand(10).astype(np.float32), (10, 1))
with tf.Session() as sess:
sess.run(tf.initialize_all_variables())
if isTrain:
for i in range(train_steps):
sess.run(train, feed_dict={x: x_data})
if (i + 1) % checkpoint_steps == 0:
saver.save(sess, checkpoint_dir + 'model.ckpt', global_step=i+1)
else:
ckpt = tf.train.get_checkpoint_state(checkpoint_dir)
if ckpt and ckpt.model_checkpoint_path:
saver.restore(sess, ckpt.model_checkpoint_path)
print(sess.run(w))
print(sess.run(b))
else:
pass
print(sess.run(w))
print(sess.run(b))
- isTrain:用来区分训练阶段和测试阶段,True表示训练,False表示测试
train_steps:表示训练的次数,例子中使用100
checkpoint_steps:表示训练多少次保存一下checkpoints,例子中使用50
checkpoint_dir:表示checkpoints文件的保存路径,例子中使用当前路径
训练阶段输出结果
[3.8142192]
[4.1174507]
[3.972232]
[4.0175548]
验证阶段输出结果,加载了之前训练的参数w和b的结果
[3.972232]
[4.0175548]