saver的用法
1. saver的背景介绍
我们经常在训练完一个模型之后希望保存训练的结果,这些结果指的是模型的参数,以便下次迭代的训练或者用作测试。tensorflow针对这一需求提供了saver类。
saver类提供了向checkpoints文件保存和从checkpoints文件中恢复变量的相关方法。checkpoints文件是一个二进制文件,它把变量名映射到对应的tensor值 。
只要提供一个计数器,当计数器触发时,saver类可以自动的生成checkpoint文件。这让我们可以在训练过程中保存多个中间结果。例如,我们可以保存每一步训练的结果。
为了避免填满整个磁盘,saver可以自动的管理checkpoints文件。例如,我们可以指定保存最近的n个checkpoints文件。
2. saver的实例
下面以一个例子来讲述如何使用saver类
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
|
import tensorflow as tf
import numpy as np
x = tf.placeholder(tf.float32, shape = [none, 1 ])
y = 4 * x + 4
w = tf.variable(tf.random_normal([ 1 ], - 1 , 1 ))
b = tf.variable(tf.zeros([ 1 ]))
y_predict = w * x + b
loss = tf.reduce_mean(tf.square(y - y_predict))
optimizer = tf.train.gradientdescentoptimizer( 0.5 )
train = optimizer.minimize(loss)
istrain = false
train_steps = 100
checkpoint_steps = 50
checkpoint_dir = ''
saver = tf.train.saver() # defaults to saving all variables - in this case w and b
x_data = np.reshape(np.random.rand( 10 ).astype(np.float32), ( 10 , 1 ))
with tf.session() as sess:
sess.run(tf.initialize_all_variables())
if istrain:
for i in xrange (train_steps):
sess.run(train, feed_dict = {x: x_data})
if (i + 1 ) % checkpoint_steps = = 0 :
saver.save(sess, checkpoint_dir + 'model.ckpt' , global_step = i + 1 )
else :
ckpt = tf.train.get_checkpoint_state(checkpoint_dir)
if ckpt and ckpt.model_checkpoint_path:
saver.restore(sess, ckpt.model_checkpoint_path)
else :
pass
print (sess.run(w))
print (sess.run(b))
|
- istrain:用来区分训练阶段和测试阶段,true表示训练,false表示测试
- train_steps:表示训练的次数,例子中使用100
- checkpoint_steps:表示训练多少次保存一下checkpoints,例子中使用50
- checkpoint_dir:表示checkpoints文件的保存路径,例子中使用当前路径
2.1 训练阶段
使用saver.save()方法保存模型:
- sess:表示当前会话,当前会话记录了当前的变量值
- checkpoint_dir + 'model.ckpt':表示存储的文件名
- global_step:表示当前是第几步
训练完成后,当前目录底下会多出5个文件。
打开名为“checkpoint”的文件,可以看到保存记录,和最新的模型存储位置。
2.1测试阶段
测试阶段使用saver.restore()方法恢复变量:
sess:表示当前会话,之前保存的结果将被加载入这个会话
ckpt.model_checkpoint_path:表示模型存储的位置,不需要提供模型的名字,它会去查看checkpoint文件,看看最新的是谁,叫做什么。
运行结果如下图所示,加载了之前训练的参数w和b的结果
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。
原文链接:https://blog.csdn.net/u011500062/article/details/51728830