tensorflow中softmax_cross_entropy_with_logits函数的实现

来源:互联网 发布:外贸邦海关数据有用吗 编辑:程序博客网 时间:2024/06/05 06:28

自己实现了softmax_cross_entropy_with_logits函数的功能,算是复习下softmax和cross_entropy

这里写图片描述

更新:—————————————————

tf中实现了softmax_cross_entropy_with_logits和sparse_softmax_cross_entropy_with_logits,今天看代码看到用sparse的,在此总结下两者的异同。

两者主要在输入参数(labels)的格式不同:
softmax_cross_entropy_with_logits中logits是[batch,num_classes]
labels是[batch,num_classes]
也就是说labels是各个类别的概率

而sparse_softmax_cross_entropy_with_logits在lables上不一样,labels的输入数[batch,1],也就是说唯一指定所属类别

阅读全文
0 0
原创粉丝点击