对比两个函数tf.nn.softmax_cross_entropy_with_logits和tf.nn.sparse_softmax_cross_entropy_with_logits
来源:互联网 发布:协方差矩阵退化 编辑:程序博客网 时间:2024/05/18 11:45
import tensorflow as tffrom random import randintdims = 8pos = randint(0, dims - 1)logits = tf.random_uniform([dims], maxval=3, dtype=tf.float32)labels = tf.one_hot(pos, dims)res1 = tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=labels)res2 = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits, labels=tf.constant(pos))with tf.Session() as sess: a, b = sess.run([res1, res2]) print a, b print a == b
tf.nn.softmax_cross_entropy_with_logits 中label输入的是一个one_hot型
tf.nn.sparse_softmax_cross_entropy_with_logits 中label输入的是int型
另外,这两个数值相等
cross_entropy1 = -tf.reduce_sum(y_*tf.log(y_conv))
cross_entropy = tf.reduce_sum(tf.nn.softmax_cross_entropy_with_logits(labels=y_,
logits=tf.matmul(h_fc1_drop, W_fc2) + b_fc2, name=’xentropy’))
阅读全文
0 0
- 对比两个函数tf.nn.softmax_cross_entropy_with_logits和tf.nn.sparse_softmax_cross_entropy_with_logits
- tf.nn.sparse_softmax_cross_entropy_with_logits()
- tf.nn.sparse_softmax_cross_entropy_with_logits
- tf.nn.softmax_cross_entropy_with_logits
- tf.nn.softmax_cross_entropy_with_logits()
- tf.nn.softmax_cross_entropy_with_logits
- tf.nn.softmax_cross_entropy_with_logits
- tf.nn.sparse_softmax_cross_entropy_with_logits()函数的用法
- Tensorflow函数:tf.nn.softmax_cross_entropy_with_logits 讲解
- tf.nn.sparse_softmax_cross_entropy_with_logits的用法
- tf.nn.softmax_cross_entropy_with_logits的用法
- [译] TF-api(3) tf.nn.softmax_cross_entropy_with_logits
- tensorflow源码 tf.nn.softmax_cross_entropy_with_logits & tf.nn.sparse_softmax_cross_entropy_with_log
- TensorFlow中的tf.nn.softmax_cross_entropy_with_logits 交叉熵 损失函数
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- tf.nn.softmax_cross_entropy_with_logits()笔记及交叉熵
- 【TensorFlow】tf.nn.softmax_cross_entropy_with_logits的用法
- 交叉熵tf.nn.softmax_cross_entropy_with_logits的用法
- Exception异常处理和自定义异常
- Elasticsearch Java API简介
- SOE 部署错误 ClassFactory cannot supply requested class
- Lua笔记【2】
- ARM中int、long类型位数
- 对比两个函数tf.nn.softmax_cross_entropy_with_logits和tf.nn.sparse_softmax_cross_entropy_with_logits
- Flask--session的新应用--当全局变量来用
- Flask学习笔记--8
- vb.net 教程 12-2 HtmlDocument类 2
- Android Fk-PKMS(2) PackageManagerService之应用的安装与卸载
- 夜长,梦短
- pat-a1018. Public Bike Management (30)
- 初见Lambda表达式
- Python小问题总结