CS231n 学习笔记(2)——神经网络 part2 :Softmax classifier
来源:互联网 发布:淘宝炉石金币号怎么买 编辑:程序博客网 时间:2024/06/14 00:59
*此系列为斯坦福李飞飞团队的系列公开课“cs231n convolutional neural network for visual recognition ”的学习笔记。本文主要是对module 1 的part2 Linear classification: Support Vector Machine, Softmax 的翻译与学习。 Softmax classifier是另一种常用的分类器,它可以看作是二类罗杰斯特回归对于多种分类情况的推广。在Softmax classifier中,判别函数与SVM一致,但是损失函数被重新定义为:
可以从信息论的角度来解读Softmax classifier:
p为正确的分类,q为算法估计出的分类。Softmax classifier就是要缩小p,q之间的信息熵。其中q是对样本分类的估计:
p是样本的正确分类,用一个向量表示,这个向量中只有一个维度是1,其余全部都是0.
从概率的角度来解读:
上式表示在W的条件下,对输入Xi进行分类,Xi属于第yi类的概率。对于正确的分类,我们要尽力缩小否定的可能性(minimizing the negative log likelihood of the correct class),我们可以用极大似然估计来解决这个问题。也可以用极大后验概率估计(Maximum a posteriori (MAP) )来解决这个问题。
数据稳定性
C是一个常熟,它的选取通常遵循准则:
svm vs softmax
SVM与softmax的具体操作过程如上图所示,值得注意的是,最后得到的损失函数并不具备可比性。只有用相同的分类器得到的损失函数才具备可比性。softmax为图片是否属于某个类别提供了一个“概率”。之所以打引号,是因为进过softmax对判别函数的处理后,所有判别的得分之和是1。例如:
如果将W整体拉伸,缩小一倍。判别的结果将变为:可以看出,“概率”的分布更加分散了。
实践中,SVM和softmax常常的性能常常不相上下。差别微乎其微。
0 0
- CS231n 学习笔记(2)——神经网络 part2 :Softmax classifier
- CS231n 学习笔记(2)——神经网络 part2 :线性分类器,SVM
- cs231n:assignment1——Q3: Implement a Softmax classifier
- CS231N学习笔记2 Assignment1_Q1: k-Nearest Neighbor classifier
- 斯坦福大学深度学习公开课cs231n学习笔记(9)softmax分类和神经网络分类代码实现
- cs231n 学习笔记(5)——神经网络part1:建立神经网络架构
- CS231n课程笔记翻译7:神经网络笔记 part2
- CS231n 学习笔记(1)——神经网络 part1 :图像分类与数据驱动方法
- CS231n 学习笔记(3)——神经网络 part3 :最优化
- CS231n 学习笔记(4)——神经网络 part4 :BP算法与链式法则
- CS231n(15):神经网络笔记 2
- cs231n 卷积神经网络与计算机视觉 2 SVM softmax
- 斯坦福大学深度学习公开课cs231n学习笔记(1)softmax函数理解与应用
- CS231n——Assignmen1之Softmax
- CS231N 卷积神经网络课程学习笔记
- CS231n课程笔记翻译:神经网络笔记2
- cs231n——assignment1: Q1: k-Nearest Neighbor classifier(手动复制版)
- cs231n:assignment1——Q1: k-Nearest Neighbor classifier(自动生成版)
- 只要好好努力!!!!!!!
- HP-UX小机故障检测之CMD篇(1)
- 网站建完后如何运营维护?
- 网站上线后必查清单
- 什么样的内容才能让人尖叫
- CS231n 学习笔记(2)——神经网络 part2 :Softmax classifier
- UVA11192 Group Reverse
- HP-UX小机故障检测之LOG篇
- java发送http请求,解析html返回的技术
- [leetcode] 19. Remove Nth Node From End of List
- 泛型接口(C# 编程)
- 就是现在
- HP-UX 使用SAM进行Printer设定
- 2016MUTC3-1007 Explorer Bo