MINST-Tensorflow1.0下搭建softmax模型

来源:互联网 发布:js鼠标移入添加样式 编辑:程序博客网 时间:2024/06/15 15:21
  • MNIST数据集下载
    • 从这里copy代码到ide
    • https://raw.githubusercontent.com/tensorflow/tensorflow/master/tensorflow/examples/tutorials/mnist/input_data.py
    • import numpy
      from six.moves import urllib
      from six.moves import xrange # pylint: disable=redefined-builtin
      import tensorflow as tf
      from tensorflow.contrib.learn.python.learn.datasets.mnist import read_data_sets
      mnist=read_data_sets(train_dir=’./MNIST_data/’,one_hot=’True’)
      (read_data_sets为1.0内容,现已更新)
  • MINST回归模型

    • import tensorflow as tf#导入tf
    • x = tf.placeholder(tf.float32, [None, 784])
    • x不是一个特定的值,而是一个占位符placeholder,在TensorFlow运行计算时输入这个值。希望能够输入任意数量的MNIST图像,每一张图展平成784维的向量。我们用2维的浮点数张量来表示这些图,这个张量的形状是[None,784 ]。(None表示此张量的第一个维度可以是任何长度。)
      W = tf.Variable(tf.zeros([784,10]))
      模型也需要权重值和偏置量,当然我们可以把它们当做是另外的输入(使用占位符),但TensorFlow有一个更好的方法来表示它们:Variable 。 一个Variable代表一个可修改的张量,存在在TensorFlow的用于描述交互性操作的图中。它们可以用于计算输入值,也可以在计算中被修改。
      b = tf.Variable(tf.zeros([10]))
      现在,我们可以实现我们的模型啦。只需要一行代码!
      y = tf.nn.softmax(tf.matmul(x,W) + b)
  • 训练模型

    • y_ = tf.placeholder(“float”, [None,10])
    • cross_entropy = -tf.reduce_sum(y_*tf.log(y))
    • train_step=tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)
    • PS:TensorFlow用梯度下降算法(gradient descent algorithm)以0.01的学习速率最小化交叉熵。梯度下降算法(gradient descent algorithm)是一个简单的学习过程,TensorFlow只需将每个变量一点点地往使成本不断降低的方向移动。当然TensorFlow也提供了其他许多优化算法:只要简单地调整一行代码就可以使用其他的算法。
    • init = tf.initialize_all_variables()
    • sess = tf.Session()
    • sess.run(init)
    • PS:初始化变量,并启动session,执行计算。
    • 开始训练:
      • for i in range(3000):
      • batch_xs, batch_ys = mnist.train.next_batch(100)
      • sess.run(train_step, feed_dict={x: batch_xs, y_: batch_ys})
      • 该循环的每个步骤中,我们都会随机抓取训练数据中的100个批处理数据点,然后我们用这些数据点作为参数替换之前的占位符来运行train_step。
      • -
  • 评估模型:
    • correct_prediction = tf.equal(tf.argmax(y,1), tf.argmax(y_,1))
    • 评估标签的真实性
    • accuracy = tf.reduce_mean(tf.cast(correct_prediction, “float”))
    • 把布尔值转化为浮点数,然后计算例如,[True, False, True, True] 会变成 [1,0,1,1] ,取平均值后得到 0.75.
    • print (sess.run(accuracy, feed_dict={x: mnist.test.images, y_: mnist.test.labels}))
    • 最后,我们计算所学习到的模型在测试数据集上面的正确率。
    • 总结
    • -

这里写图片描述

0 0
原创粉丝点击