卷积神经网络LeNet5,基于TensorFlow的实现

来源:互联网 发布:如何做淘宝详情页 编辑:程序博客网 时间:2024/05/21 09:12

       今天用一个小时,实现了LeNet5,一个经典的简单卷积神经网络,前面看西瓜书和《TensorFlow实践》也打下了一些基础。
       神经网络的最基础的结构是这样的:
      
       每条连线上都有一个权重,除Input层外,其他层每个结点都有一个偏置量,这些值是神经网络的关键,用来触发激活函数。通过激活函数最后在Output层输出结果。
       卷积神经网络主要应用于计算机对图片的识别。目前最NB的卷积神经网络是微软研究院的ResNet V2,据说是由三个华人提出的。为国争光!!
基本的卷积神经网络结构是这样的:
这里写图片描述         卷积神经网络并不直接输入图片整体,而是将一张图片分为若干小块来看,这样可以不受平移,旋转,亮度等的影响,而且这也是卷积神经网络的精髓所在。
c1,c3是卷积层,s2,s4是池化层。卷积层看起来像一堆纸一样,其实是卷积核的个数,每个卷积核分别对输入的图片的一小部分提取一个特征,然后池化层将图片进一步变小,只留下特征明显的部分,如图,通过2次卷积,池化,再接入2个全连接层对图片进行辨认,得到结果。
下面附上我的代码,备注清晰,学习TensorFlow可以参考一下。

from tensorflow.examples.tutorials.mnist import input_dataimport tensorflow as tfmnist = input_data.read_data_sets("MNIST_data/",one_hot=True)sess = tf.InteractiveSession()'''初始化权重函数'''def weight_variable(shape):    initial = tf.truncated_normal(shape,stddev= 0.1)    return tf.Variable(initial)'''初始化偏置函数'''def bias_variable(shape):    initial = tf.constant(0.1,shape=shape)    return tf.Variable(initial)'''conv2d是2维卷积函数x是输入w是卷积参数[a.b.c.d],a,b是卷积核的大小,c是图片的channel,d是卷积核的数量strides是卷积样板移动的步长padding是边界处理方式'''def conv2d(x,w):    return tf.nn.conv2d(x,w,strides=[1,1,1,1],padding='SAME')'''池化函数ksize是池化前后的像素strides是池化的步长,这是横竖方向设为2,若为1,则返回一个尺寸不变的图片'''def max_pool(x):    return tf.nn.max_pool(x,ksize=[1,2,2,1],strides=[1,2,2,1],padding='SAME')x = tf.placeholder(tf.float32,[None,784])y_ = tf.placeholder(tf.float32,[None,10])#将输入1*784转为28*28的原始结构,-1代表样本数量不变,1代表样本channel数量x_image = tf.reshape(x,[-1,28,28,1])#卷积层conv1w_conv1 = weight_variable([5,5,1,32])b_conv1 = bias_variable([32])h_conv1 = tf.nn.relu(conv2d(x_image,w_conv1) + b_conv1)#池化层pool1h_pool1 = max_pool(h_conv1)#卷积层conv2w_conv2 = weight_variable([5,5,32,64])b_conv2 = bias_variable([64])h_conv2 = tf.nn.relu(conv2d(h_pool1,w_conv2) + b_conv2)#池化层pool2h_pool2 = max_pool(h_conv2)#将pool2输入转为1D的向量,7*7是因为此时图片已经只有原来的1/4大小,即7*7h_pool2_flat = tf.reshape(h_pool2,[-1,7*7*64])#连接一个全连接层w_fc1 = weight_variable([7*7*64,1024])b_fc1 = bias_variable([1024])h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat,w_fc1) + b_fc1)#Dropout层防止过拟合keep_prob = tf.placeholder(tf.float32)h_fc1_drop = tf.nn.dropout(h_fc1,keep_prob)#输出层w_fc2 = weight_variable([1024,10])b_fc2 = bias_variable([10])y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop,w_fc2) + b_fc2)#loss fuctioncross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y_conv),reduction_indices=[1]))#优化器train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)correct_prediction = tf.equal(tf.arg_max(y_conv,1),tf.arg_max(y_,1)) #得到正确的预测结果,返回布尔值accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))init = tf.global_variables_initializer()init.run()for i in range(2000):    batch = mnist.train.next_batch(50)    if i % 100 == 0:        train_accuracy = accuracy.eval(feed_dict={x: batch[0], y_: batch[1], keep_prob: 1.0})        print("step %d,training accuracy %g"%(i,train_accuracy))    train_step.run(feed_dict={x: batch[0], y_: batch[1], keep_prob: 0.5})print(sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels,keep_prob: 1.0}))