tensorflow模型继续训练 fineturn实例
解决tensoflow如何在已训练模型上继续训练fineturn的问题。
训练代码
任务描述:x=3.0,y=100.0,运算公式x×W+b=y,求W和b的最优解。
#-*-coding:utf-8-*-) importtensorflowastf #声明占位变量x、y x=tf.placeholder("float",shape=[None,1]) y=tf.placeholder("float",[None,1]) #声明变量 W=tf.Variable(tf.zeros([1,1]),name='w') b=tf.Variable(tf.zeros([1]),name='b') #操作 result=tf.matmul(x,W)+b #损失函数 lost=tf.reduce_sum(tf.pow((result-y),2)) #优化 train_step=tf.train.GradientDescentOptimizer(0.0007).minimize(lost) withtf.Session()assess: #初始化变量 sess.run(tf.global_variables_initializer()) saver=tf.train.Saver(max_to_keep=3) #这里x、y给固定的值 x_s=[[3.0]] y_s=[[100.0]] step=0 while(True): step+=1 feed={x:x_s,y:y_s} #通过sess.run执行优化 sess.run(train_step,feed_dict=feed) ifstep%1000==0: print'step:{0},loss:{1}'.format(step,sess.run(lost,feed_dict=feed)) ifsess.run(lost,feed_dict=feed)<1e-10orstep>4e3: print'' #print'finallossis:{}'.format(sess.run(lost,feed_dict=feed)) print'finalresultof{0}={1}(目标值是100.0)'.format('x×W+b',3.0*sess.run(W)+sess.run(b)) print'' print("模型保存的W值:%f"%sess.run(W)) print("模型保存的b:%f"%sess.run(b)) break saver.save(sess,"./save_model/re-train",global_step=step)#保存模型
训练完成之后生成模型文件:
训练输出:
step:1000,loss:4.89526428282e-08 step:2000,loss:4.89526428282e-08 step:3000,loss:4.89526428282e-08 step:4000,loss:4.89526428282e-08 step:5000,loss:4.89526428282e-08 finalresultofx×W+b=[[99.99978]](目标值是100.0) 模型保存的W值:29.999931 模型保存的b:9.999982
保存在模型中的W值是29.999931,b是9.999982。
以下代码从保存的模型中恢复出训练状态,继续训练
任务描述:x=3.0,y=200.0,运算公式x×W+b=y,从上次训练的模型中恢复出训练参数,继续训练,求W和b的最优解。
#-*-coding:utf-8-*-) importtensorflowastf #声明占位变量x、y x=tf.placeholder("float",shape=[None,1]) y=tf.placeholder("float",[None,1]) withtf.Session()assess: #初始化变量 sess.run(tf.global_variables_initializer()) #saver=tf.train.Saver(max_to_keep=3) saver=tf.train.import_meta_graph(r'./save_model/re-train-5000.meta')#加载模型图结构 saver.restore(sess,tf.train.latest_checkpoint(r'./save_model'))#恢复数据 #从保存模型中恢复变量 graph=tf.get_default_graph() W=graph.get_tensor_by_name("w:0") b=graph.get_tensor_by_name("b:0") print("从保存的模型中恢复出来的W值:%f"%sess.run("w:0")) print("从保存的模型中恢复出来的b值:%f"%sess.run("b:0")) #操作 result=tf.matmul(x,W)+b #损失函数 lost=tf.reduce_sum(tf.pow((result-y),2)) #优化 train_step=tf.train.GradientDescentOptimizer(0.0007).minimize(lost) #这里x、y给固定的值 x_s=[[3.0]] y_s=[[200.0]] step=0 while(True): step+=1 feed={x:x_s,y:y_s} #通过sess.run执行优化 sess.run(train_step,feed_dict=feed) ifstep%1000==0: print'step:{0},loss:{1}'.format(step,sess.run(lost,feed_dict=feed)) ifsess.run(lost,feed_dict=feed)<1e-10orstep>4e3: print'' #print'finallossis:{}'.format(sess.run(lost,feed_dict=feed)) print'finalresultof{0}={1}(目标值是200.0)'.format('x×W+b',3.0*sess.run(W)+sess.run(b)) print("模型保存的W值:%f"%sess.run(W)) print("模型保存的b:%f"%sess.run(b)) break saver.save(sess,"./save_mode/re-train",global_step=step)#保存模型
训练输出:
从保存的模型中恢复出来的W值:29.999931 从保存的模型中恢复出来的b值:9.999982 step:1000,loss:1.95810571313e-07 step:2000,loss:1.95810571313e-07 step:3000,loss:1.95810571313e-07 step:4000,loss:1.95810571313e-07 step:5000,loss:1.95810571313e-07 finalresultofx×W+b=[[199.99956]](目标值是200.0) 模型保存的W值:59.999866 模型保存的b:19.999958
从保存的模型中恢复出来的W值是29.999931,b是9.999982,跟模型保存的值一致,说明加载成功。
总结
从头开始训练一个模型,需要通过tf.train.Saver创建一个保存器,完成之后使用save方法保存模型到本地:
saver=tf.train.Saver(max_to_keep=3) …… saver.save(sess,"./save_model/re-train",global_step=step)#保存模型
在训练好的模型上继续训练,fineturn一个模型,可以使用tf.train.import_meta_graph方法加载图结构,使用restore方法恢复训练数据,最后使用同样的save方法保存到本地:
saver=tf.train.import_meta_graph(r'./save_model/re-train-10050.meta')#加载模型图结构 saver.restore(sess,tf.train.latest_checkpoint(r'./save_model'))#恢复数据 saver.save(sess,"./save_mode/re-train",global_step=step)#保存模型
注:特殊情况下(如本例)需要从恢复的模型中加载出数据:
#从保存模型中恢复变量 graph=tf.get_default_graph() W=graph.get_tensor_by_name("w:0") b=graph.get_tensor_by_name("b:0")
以上这篇tensorflow模型继续训练fineturn实例就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持毛票票。
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。