学习Caffe(五):浅析softmax cross entropy loss与sigmoid cross entropy loss

来源:互联网 发布:java数组动态添加元素 编辑:程序博客网 时间:2024/04/29 13:41

Caffe中的softmax loss可以看成最大似然估计
这里写图片描述
也可以从信息论的角度解释:即最小化估计分布与真实分布的差异。

阅读全文
0 0
原创粉丝点击