TensorFlow学习笔记(3)——softmax_cross_entropy_with_logits函数详解
来源:互联网 发布:变电站仿真源码 编辑:程序博客网 时间:2024/06/06 00:09
softmax_cross_entropy_with_logits函数原型:
tf.nn.softmax_cross_entropy_with_logits(labels=y, logits=pred, name=None)
函数功能:计算最后一层是softmax层的cross entropy,把softmax计算与cross entropy计算放到一起了,用一个函数来实现,用来提高程序的运行速度。
参数name:该操作的name
参数labels:shape是[batch_size, num_classes],神经网络期望输出。
参数logits:shape是[batch_size, num_classes] ,神经网络最后一层的输入。
具体的执行流程大概分为两步:
第一步是对网络最后一层的输出做一个softmax,这一步通常是求取输出属于某一类的概率,对于单样本而言,输出就是一个
大小的向量([Y1,Y2,Y3,...]其中Y1,Y2,Y3,...分别代表了是属于该类的概率)num_classes
第二步是softmax的输出向量[Y1,Y2,Y3,...]和样本的实际标签做一个交叉熵,
指实际标签中第i个的值;
指
中,第i个元素的值。softmax的输出向量[Y1,Y2,Y3...]
总之,tensorflow之所以把softmax和cross entropy放到一个函数里计算,就是为了提高运算速度。
0 0
- TensorFlow学习笔记(3)——softmax_cross_entropy_with_logits函数详解
- tensorflow函数--softmax_cross_entropy_with_logits
- [tensorflow损失函数系列]softmax_cross_entropy_with_logits
- Tensorflow函数:tf.nn.softmax_cross_entropy_with_logits 讲解
- tensorflow中softmax_cross_entropy_with_logits函数的实现
- TensorFlow学习---tf.nn.softmax_cross_entropy_with_logits的用法
- tensorflow学习:tf.nn.softmax_cross_entropy_with_logits()
- TensorFlow学习笔记之tf.nn.softmax()与tf.nn.softmax_cross_entropy_with_logits的用法
- TensorFlow学习笔记(1)——conv2d函数的padding参数详解
- TensorFlow中的tf.nn.softmax_cross_entropy_with_logits 交叉熵 损失函数
- TensorFlow学习笔记之——常用函数(概览)
- tensorflow 中softmax_cross_entropy_with_logits的使用
- TensorFlow学习笔记3
- 深度学习笔记——TensorFlow学习笔记(二)激活函数、损失函数、优化算法和正则项
- tensorflow学习笔记(一)——tensorflow基本使用
- 解决 tensorflow softmax_cross_entropy_with_logits() 报错 Only call `softmax_cross_entropy_with_logits`
- tensorflow 学习笔记3 placeholder与激活函数
- tensorflow学习——collections.namedtuple函数
- github的使用总结
- <Qt>事件的accept()与ignore()的传递
- Linux下安装配置JDK
- iOS 全屏截图
- PCHunter超强的结束进程工具
- TensorFlow学习笔记(3)——softmax_cross_entropy_with_logits函数详解
- java绘图机制
- iOS本地数据库FMDB的使用
- 第一章:Web MVC
- 多尺度Harris角点的学习
- CentOS7配置MySQL、Nginx、Spring Boot
- 关于java jsp中引入jquery框架无效的解决办法
- Java反射机制常用总结
- iOS手势冲突