Softmax
来源:互联网 发布:吉利知豆d1和d2的区别 编辑:程序博客网 时间:2024/06/06 14:21
简介
其实吧,一般在神经网络中用的最多的是sigmoid和tanh,当然也有用relu的。这是针对“是”和“否”的分类,但当进行多分类时,就要用到softmax 。
在logistic回归中,训练样本是:
在logistic回归中,激活函数是:
训练
其中,
,那么对应的对数图像是:
我们要做的是分类,因此当然是想知道,当输入x是,x分别属于每一个类的概率,概率最大的那个就是我们认为的属于的类。
让输出为一个向量,并且有
这里的
上面的公式真难打。。
可以看出,我们将
softmax模型参数
softmax模型的参数是k个n+1维的
代价函数
代价函数是:
可以这样理解,就是求另每个输入属于属于每一类的概率,再求平均。
对比logistic的
可以看出,形式非常相似,只是在累的标记的k个可能值进行了累加。
将x分类到类别 j 的概率为:
经过求导,得到梯度公式:
每次更新:
权重衰减
虽然代价函数是上面形式,但是一般是添加一个权重衰减项
此时:
,求导变成:
1 0
- softmax
- softmax
- Softmax
- Softmax
- Softmax
- Softmax
- Softmax
- softmax回归(Softmax Regression)
- softmax 函数
- Softmax回归
- softmax 回归
- SoftMax regression
- Spark Softmax
- Softmax Regression
- softmax regression
- softmax杂记
- softmax回归
- Softmax回归
- 【Unity3D】浅谈Vector3的点积与叉积
- 深度学习系列(七):自编码网络与PCA特征学习的分类对比实验
- leetcode:190 Reverse Bits-每日编程第三十二题
- 【Linux】让Apache中php的url不再区分大小写
- Windows socket-五种I/O模型
- Softmax
- 鸟类及动物声音辨识方法原理进展境况转自知乎
- Android5.X (三) : CardView
- Bootstrap记录点滴
- linux下获取程序当前目录绝对路径
- 给大家来个事务的使用方式
- Mybatis基础知识--框架原理篇
- 态度
- D3学习之update、enter、exit