Tensorflow深度学习之softmax
来源:互联网 发布:vue.js 时间戳格式化 编辑:程序博客网 时间:2024/05/18 03:55
神经网络没有卷积功能,只有简单的三层:输入层,隐藏层和输出层。
数据从输入层输入,在隐藏层进行加权变换,最后在输出层进行输出。输出的时候,我们可以使用softmax回归,输出属于每个类别的概率值。借用极客学院的图表示如下:
其中,x1,x2,x3为输入数据,经过运算后,得到三个数据属于某个类别的概率值y1,y2,y3. 用简单的公式表示如下:
在训练过程中,我们将真实的结果和预测的结果相比(交叉熵比较法),会得到一个残差。公式如下:
y 是我们预测的概率值, y' 是实际的值。这个残差越小越好,我们可以使用梯度下降法,不停地改变W和b的值,使得残差逐渐变小,最后收敛到最小值。这样训练就完成了,我们就得到了一个模型(W和b的最优化值)。
完整代码如下:
import tensorflow as tfimport tensorflow.examples.tutorials.mnist.input_data as input_datamnist = input_data.read_data_sets("MNIST_data/", one_hot=True)x = tf.placeholder(tf.float32, [None, 784])y_actual = tf.placeholder(tf.float32, shape=[None, 10])W = tf.Variable(tf.zeros([784,10])) #初始化权值Wb = tf.Variable(tf.zeros([10])) #初始化偏置项by_predict = tf.nn.softmax(tf.matmul(x,W) + b) #加权变换并进行softmax回归,得到预测概率cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_actual*tf.log(y_predict),reduction_indies=1)) #求交叉熵train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy) #用梯度下降法使得残差最小correct_prediction = tf.equal(tf.argmax(y_predict,1), tf.argmax(y_actual,1)) #在测试阶段,测试准确度计算accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float")) #多个批次的准确度均值init = tf.initialize_all_variables()with tf.Session() as sess: sess.run(init) for i in range(1000): #训练阶段,迭代1000次 batch_xs, batch_ys = mnist.train.next_batch(100) #按批次训练,每批100行数据 sess.run(train_step, feed_dict={x: batch_xs, y_actual: batch_ys}) #执行训练 if(i%100==0): #每训练100次,测试一次 print "accuracy:",sess.run(accuracy, feed_dict={x: mnist.test.images, y_actual: mnist.test.labels})
每训练100次,测试一次,随着训练次数的增加,测试精度也在增加。训练结束后,1W行数据测试的平均精度为91%左右,不是太高,肯定没有CNN高。
0 0
- Tensorflow深度学习之softmax
- Tensorflow之softmax学习
- 深度学习之Softmax回归
- 深度学习---之softmax与交叉熵
- 深度学习笔记----softmax
- TensorFlow学习笔记(一):手写数字识别之softmax回归
- Tensorflow学习笔记-softmax、cross_entroy
- 【深度学习】Tensorflow学习记录(一) softmax regression mnist训练
- 深度学习UFLDL教程翻译之Softmax回归
- 5.0 深度学习之公式详细推导Softmax和Overfitting
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习常用激活函数之— Sigmoid & ReLU & Softmax
- 深度学习Loss function之Softmax中的矩阵求导
- 深度学习7softmax回归
- 深度学习入门 ---softmax回归
- [深度学习]Softmax 交叉熵
- colorUtils
- PHP学习(2)
- JavaScript数据类型
- log.error("异常:", e);与log.error(e.getMessage());区别
- volatile深入分析( 什么时候使用volatile)
- Tensorflow深度学习之softmax
- 使用Lombok消除冗长的java代码
- 【MATLAB】随机抽取有序的mat文件
- 浅析ListenableFuture使用场景及介绍示例
- 可以免费自学编程的12个网站
- WPF数据绑定
- 设计模式之---代理模式
- Node.js系列——(3)连接DB
- 对象缩放纹理自动重复