深度学习小白——TensorFlow(一)简介

来源:互联网 发布:剑网三军爷脸数据 编辑:程序博客网 时间:2024/05/21 14:54

我选择tensorFlow作为我学习的第一个神经网络框架,恰巧最近Tensorflow支持了windows,所以让我的学习变得更加便捷。

我的主要参考文章有

http://blog.csdn.net/u014595019/article/details/52677412

https://mp.weixin.qq.com/s/6H2FkNQSZ-qp3u5_FN5UoA

http://wiki.jikexueyuan.com/project/tensorflow-zh/



一、TensorFlow的运行流程

TensorFlow运行流程分为两步,分别是构造模型训练。

在构造阶段,我们需要去构建一个图(Graph)来描述我们的模型,然后在session中启动它。所谓图,可以理解为流程图,就是将数据的输入输出的过程表示出来


但是此时是不会发生实际运算的,因为TensorFlow是【延迟执行(deferred execution)】模型,它必须知道你要计算什么,你的执行图,然后才开始发送计算任务到各种计算机。所以你首先使用TensorFlow函数在内存中创造一个计算图,然后启动一个执行session并且使用session.run执行实际训练任务,如梯度计算等操作,在此时,图无法被改变。


1.1基本概念

1.1.1 Tensor

Tensor的意思就是张量,我的理解就是一个维数不定的矩阵,也可以理解为tensorflow中矩阵的表示形式,tensor的生成方式有很多种,之后再详细总结,举个例子

import tensorflow as tfa=tf.zeros(shape=[1,2])

注意:在session.run之前,所有数据都是抽象的概念,也就是说,a此时只是表示这应该是一个1*2的零矩阵,但却没有实际赋值,所以如果此时print(a),就会出现如下情况:

print(a)#==>Tensor("zeros:0", shape=(1, 2), dtype=float32)

只有启动session后,才能得到a的值

sess=tf.Session()print(sess.run(a))[[ 0.  0.]]

1.1.2. Variable

当训练模型的时候,要用变量来存储和更新参数,变量包含张量(Tensor)存放于内存的缓存区,建模时它们需要被明确地初始化,模型训练后它们b必须被存储到磁盘。这些变量的值可在之后模型训练和分析时被加载。
如我要计算 y=ReLU(Wx+b)
那么W,b就是我要用来训练的参数,那么这两个值就可以用Variable来表示,Variable初始函数有很多选项,这里先不提,只输
入一个tensor也是可以的

W=tf.Variable(tf.zeros((1,2)))

如果

v=tf.Variable(tf.zeros((1,2)))sess=tf.Session()#print(sess.run(v))  #会报错,因为没对变量初始化sess.run(tf.initialize_all_variables()) #对所有变量初始化print(sess.run(v))

就会输出[[0. 0.]]


有时,还可以用另一个变量的初始化值给当前变量初始化。由于 tf.initialize_all_variables() 是并行地初始化所有变量,所以在有这种需求的情况下需要小心。


# Create a variable with a random value.weights = tf.Variable(tf.random_normal([784, 200], stddev=0.35),                      name="weights")# Create another variable with the same value as 'weights'.w2 = tf.Variable(weights.initialized_value(), name="w2")# Create another variable with twice the value of 'weights'w_twice = tf.Variable(weights.initialized_value() * 0.2, name="w_twice")

1.1.3.placeholder 占位符
同样也是一个抽象的概念,用于表示输入输出数据的格式,告诉系统:这里有一个值/向量/矩阵,现在我没发给你具体数值,不过我正式运行的时候会补上,一般都是要从外部输入的值,例如例子中的x和y,因为没有具体数值,只要指定尺寸就可以


x=tf.placeholder(tf.float32,[1,5],name='input')y=tf.placeholder(tf.float32,[None,5],name='input')


y表示一个输入为【?,5】的矩阵,None就代表输入的批数,当需要输入一批为5个时,那么就是【5,5】的矩阵,tensorflow会自动进行批处理。

注意:设计placeholder节点的唯一意图就是为了提供数据供给(feeding)的方法。placeholder节点被声明的时候是未初始化的,也不包含数据,如果有为它供给数据,则Tensorflow运算的时候会产生错误


1.1.4.Session 会话
Session就是抽象模型的实现者,具体的参数训练,预测,甚至是变量的实际值查询,都要用到session


1.2模型构建
这里先说官方最基础的MNIST数据集单层网络例子

(1)读入数据

from tensorflow.examples.tutorials.mnist import input_dataimport cv2import numpy as np#mnist = input_data.read_data_sets("mnist_data/", one_hot=True)mnist = input_data.read_data_sets("C:\\Users\\1\\AppData\\Local\\Programs\\Python\Python35\\Lib\\site-packages\\tensorflow\\examples\\tutorials\\mnist", one_hot=True)import tensorflow as tf

此处我是直接从官网 下的mnist数据集,因为官网指导上那个代码我用不了


(2) 建立抽象模型

x = tf.placeholder(tf.float32, [None, 784])#W = tf.Variable(tf.random_normal([784, 10], stddev=0.1))W = tf.Variable(tf.zeros([784, 10]))b = tf.Variable(tf.zeros([10]))y = tf.nn.softmax(tf.matmul(x, W) + b)y_ = tf.placeholder("float", [None, 10])cross_entropy = -tf.reduce_sum(y_ * tf.log(y))train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)init = tf.global_variables_initializer()

对输入x,label y_创建一个占位符,以及声明W,b变量,通过softmax得到预测结果y
定义损失函数cross_entropy,训练方法(梯度下降)train_step


(3)实际训练

sess = tf.InteractiveSession()sess.run(init)for i in range(10000):    batch_xs, batch_ys = mnist.train.next_batch(100)    sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})    if i % 500== 0:        correct_prediction = tf.equal(tf.argmax(y, 1), tf.argmax(y_, 1))        accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))        print(accuracy.eval(feed_dict={x: mnist.test.images, y_: mnist.test.labels}, session=sess))

在模型搭建完成以后,我们只要为模型提供输入和输出,模型就能够自己进行训练和测试,中间的求导,求梯度,反向传播等等,TensorFlow都会帮你自动完成。结果最终为0.92





二、5层全连接神经网络


1.首先定义每层的神经元个数
K=400
L=100
M=60
N=30


2.搭建模型

W1=tf.Variable(tf.truncated_normal([28*28,K],stddev=0.1))B1=tf.Variable(tf.zeros([K]))W2=tf.Variable(tf.truncated_normal([K,L],stddev=0.1))B2=tf.Variable(tf.zeros([L]))W3=tf.Variable(tf.truncated_normal([L,M],stddev=0.1))B3=tf.Variable(tf.zeros([M]))W4=tf.Variable(tf.truncated_normal([M,N],stddev=0.1))B4=tf.Variable(tf.zeros([N]))W5=tf.Variable(tf.truncated_normal([N,10],stddev=0.1))B5=tf.Variable(tf.zeros([10]))X=tf.placeholder(tf.float32,[None,28,28,1])y_=tf.placeholder(tf.float32,[None,10]) #hot-vector的形式X=tf.reshape(X,[-1,28*28])Y1=tf.nn.relu(tf.matmul(X,W1)+B1)Y2=tf.nn.relu(tf.matmul(Y1,W2)+B2)Y3=tf.nn.relu(tf.matmul(Y2,W3)+B3)Y4=tf.nn.relu(tf.matmul(Y3,W4)+B4)pred=tf.nn.softmax(tf.matmul(Y4,W5)+B5)loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred,labels=y_))train_step=tf.train.GradientDescentOptimizer(0.03).minimize(loss)corr=tf.equal(tf.argmax(pred,1),tf.argmax(y_,1)) #找到每行最大的作为输出结果accu=tf.reduce_mean(tf.cast(corr,tf.float32))init=tf.global_variables_initializer()


3.训练

sess=tf.InteractiveSession()sess.run(init)for i in range(10000):    batch_xs, batch_ys = mnist.train.next_batch(100)    sess.run(train_step, feed_dict={X: batch_xs, y_: batch_ys})    if i % 100 ==0:        print("测试集正确率:%f" %accu.eval(feed_dict={X:mnist.test.images,y_:mnist.test.labels},session=sess))

最终得到的测试集准确率为:0.884
该结果还没有单层softmax效果好,目前还不知道为什么····

1 0