tensorflow保存图和权重
来源:互联网 发布:淘宝供销平台对接 编辑:程序博客网 时间:2024/06/05 18:59
有时候,我们需要将TensorFlow的模型导出为单个文件(同时包含模型架构定义与权重),方便在其他地方使用(如在c++中部署网络)。利用tf.train.write_graph()
默认情况下只导出了网络的定义(没有权重),而利用tf.train.Saver().save()
导出的文件graph_def与权重是分离的,因此需要采用别的方法。
我们知道,graph_def文件中没有包含网络中的Variable值(通常情况存储了权重),但是却包含了constant值,所以如果我们能把Variable转换为constant,即可达到使用一个文件同时存储网络架构与权重的目标。
我们可以采用以下方式冻结权重并保存网络:
import tensorflow as tffrom tensorflow.python.framework.graph_util import convert_variables_to_constants# 构造网络a = tf.Variable([[3],[4]], dtype=tf.float32, name='a')b = tf.Variable(4, dtype=tf.float32, name='b')# 一定要给输出tensor取一个名字!!output = tf.add(a, b, name='out')# 转换Variable为constant,并将网络写入到文件with tf.Session() as sess: sess.run(tf.global_variables_initializer()) # 这里需要填入输出tensor的名字 graph = convert_variables_to_constants(sess, sess.graph_def, ["out"]) tf.train.write_graph(graph, '.', 'graph.pb', as_text=False)
当恢复网络时,可以使用如下方式:
import tensorflow as tfwith tf.Session() as sess: with open('./graph.pb', 'rb') as f: graph_def = tf.GraphDef() graph_def.ParseFromString(f.read()) output = tf.import_graph_def(graph_def, return_elements=['out:0']) print(sess.run(output))
输出结果为:
[array([[ 7.], [ 8.]], dtype=float32)]
可以看到之前的权重确实保存了下来!!
问题来了,我们的网络需要能有一个输入自定义数据的接口啊!不然这玩意有什么用。。别急,当然有办法。
import tensorflow as tffrom tensorflow.python.framework.graph_util import convert_variables_to_constantsa = tf.Variable([[3],[4]], dtype=tf.float32, name='a')b = tf.Variable(4, dtype=tf.float32, name='b')input_tensor = tf.placeholder(tf.float32, name='input')output = tf.add((a+b), input_tensor, name='out')with tf.Session() as sess: sess.run(tf.global_variables_initializer()) graph = convert_variables_to_constants(sess, sess.graph_def, ["out"]) tf.train.write_graph(graph, '.', 'graph.pb', as_text=False)
用上述代码重新保存网络至graph.pb,这次我们有了一个输入placeholder,下面来看看怎么恢复网络并输入自定义数据。
import tensorflow as tfwith tf.Session() as sess: with open('./graph.pb', 'rb') as f: graph_def = tf.GraphDef() graph_def.ParseFromString(f.read()) output = tf.import_graph_def(graph_def, input_map={'input:0':4.}, return_elements=['out:0'], name='a') print(sess.run(output))
输出结果为:
[array([[ 11.], [ 12.]], dtype=float32)]
可以看到结果没有问题,当然在input_map
那里可以替换为新的自定义的placeholder,如下所示:
import tensorflow as tfnew_input = tf.placeholder(tf.float32, shape=())with tf.Session() as sess: with open('./graph.pb', 'rb') as f: graph_def = tf.GraphDef() graph_def.ParseFromString(f.read()) output = tf.import_graph_def(graph_def, input_map={'input:0':new_input}, return_elements=['out:0'], name='a') print(sess.run(output, feed_dict={new_input:4}))
看看输出,同样没有问题。
[array([[ 11.], [ 12.]], dtype=float32)]
另外需要说明的一点是,在利用tf.train.write_graph
写网络架构的时候,如果令as_text=True
了,则在导入网络的时候,需要做一点小修改。
import tensorflow as tffrom google.protobuf import text_formatwith tf.Session() as sess: # 不使用'rb'模式 with open('./graph.pb', 'r') as f: graph_def = tf.GraphDef() # 不使用graph_def.ParseFromString(f.read()) text_format.Merge(f.read(), graph_def) output = tf.import_graph_def(graph_def, return_elements=['out:0']) print(sess.run(output))
阅读全文
0 0
- tensorflow保存图和权重
- tensorflow训练权重的保存和读取
- tensorflow训练权重保存和调用——tf.saver()
- tensorflow输出权重值和偏差
- tensorflow存储图和训练的权重为.pb,然后读取.pb并使用
- tensorflow保存 和 加载模型
- Tensorflow保存和读取模型
- Tensorflow 保存和加载模型
- 保存和读取 TensorFlow 模型
- tensorflow保存和加载模型
- Tensorflow中GRU和LSTM的权重初始化
- tensorflow 权重初始化
- tensorflow选择性读取权重
- 【Tensorflow】图和模型的保存机制与原理
- TensorFlow 保存和导入计算图中的部分节点
- tensorflow 保存和加载模型 -2
- tensorflow模型参数保存和加载问题
- TensorFlow保存和加载训练模型
- 自己写1047. 编程团体赛(20) scanf("%d-%d %d",&a[i].team,&a[i].num,&a[i].grade)
- CodeForces:847D-Dog Show
- python笔记之:两个数组同时排序
- CocoaPods安装
- matplotlib绘制折线图与散点图
- tensorflow保存图和权重
- 数据库视频分享甲骨论大数据
- stm32学习笔记——***JLink Error: Bad JTAG communication: Write to IR: Expected 0x1, got 0xF (TAP Command :
- Linux文件与目录管理
- mongodb安装
- 基于 Harbor 搭建 Docker 私有镜像仓库
- PAT乙级(Basic Level)练习题 骨牌铺方格
- PCI/CA体系下使用USBkey实现认证与加密(一)整体架构
- detectMSERFeatures