tf.nn.sparse_softmax_cross_entropy_with_logits
来源:互联网 发布:苏州固锝 知乎 编辑:程序博客网 时间:2024/06/05 14:22
tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels, name=None)
计算logits 和 labels 之间的稀疏softmax 交叉熵
度量在离散分类任务中的错误率,这些类之间是相互排斥的(每个输入只能对应唯一确定的一个类)。举例来说,每个CIFAR-10 图片只能被标记为唯一的一个标签:一张图片可能是一只狗或一辆卡车,而不能两者都是。
注意:针对这个操作,给定某一个标签的概率被认为是排外的。也就是说,软分类是不允许的,并且labels 向量必须提供一个单一的指定的真实类别的索引,为logits 的每一行(每个 minibatch 的输入)。对于软 softmax 分类来说,对每一个输入有一个概率分布,参照 softmax_cross_entropy_with_logits.
警告:这个操作期望无尺度化的logits, 因为它在内部高效地对logits 进行 softmax 。请不要用softmax 的输出调用这个操作,否则会产生错误结果。
logits 必须具有shape [batch_size, num_classes] 并且 dtype (float32 or float64)
labels 必须具有shape [batch_size],并且 dtype int64
参数:
- logits: 无尺度化的log 概率
- labels: 每个条目 labels[i] 必须是[0, num_classes) 的索引或者-1. 如果是-1,则相应的损失为0,不用考虑 logits[i] 的值。
返回值:
batch_size 长度的1-D Tensor,type 类型和 logits 一样,值为softmax 交叉熵损失。
logits 和 labels 的shpae
logits
labels
MNIST 单层网络 softmax 的交叉熵
阅读全文
0 0
- tf.nn.sparse_softmax_cross_entropy_with_logits()
- tf.nn.sparse_softmax_cross_entropy_with_logits
- tf.nn.sparse_softmax_cross_entropy_with_logits的用法
- 对比两个函数tf.nn.softmax_cross_entropy_with_logits和tf.nn.sparse_softmax_cross_entropy_with_logits
- tf.nn.sparse_softmax_cross_entropy_with_logits()函数的用法
- tf.nn
- tf.nn.top_k() tf.nn.in_top_k()
- tf.nn.top_k() tf.nn.in_top_k()
- tf.nn.conv2d 实例
- tf.nn.max_pool 实例
- tf.nn.atrous_conv2d 实例
- tf.nn.conv2d()
- tf.nn.in_top_k()
- tf.nn.ctc_loss
- tf.nn.embedding_lookup理解
- tf.nn.conv2d理解
- tf.nn.embedding_lookup()笔记
- tf.nn.softmax_cross_entropy_with_logits
- struts2标签详解
- poll方法(select多路监控原理与实现)
- 556. Next Greater Element III
- Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster" 各个节点意思
- hive---DML一些学习
- tf.nn.sparse_softmax_cross_entropy_with_logits
- github-popular
- :[org.springframework.dao.DataIntegrityViolationException: could not execute statement; SQL [n/a];
- Java--中文转换拼音,jpinyin-1.0.jar
- linux设备驱动的并发与竞争
- Tcp_Wrapper_简单的基于主机的访问控制工具
- mui开发APP教程之mui.ajax请求后出现“加载中”
- 仿滴滴打车开具发票页,ListView 粘性 Header
- {loop $tags $i $t}参数