交叉熵到logistic和softmax
来源:互联网 发布:android多线程编程 编辑:程序博客网 时间:2024/05/29 12:10
交叉熵到logistic和softmax
面试的时候被问到了softmax的问题,答的不大好,整理一下。
参考了以下作者的答案ke1th、Daniel的学习笔记、qian99、 u010223750
交叉熵在神经网络中作为损失函数。
1均方误差—线性回归
先看一下均方误差,均方误差是最常见的损失函数
损失函数如下:
求导:
求导结果作为梯度下降的参数更新。
2交叉熵
交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近。假设概率分布p为期望输出,概率分布q为实际输出,H(p,q)为交叉熵,有以下两种形式:
两种交叉熵,对应logistic和softmax回归
logistic回归主要是两类问题,一位(0/1)就能表示两种情况,属于二项分布。softmax用于多分类问题。
2.1二分类logistic回归
sigmoid函数:
sigmoid导数:
把a看作y=1的概率值:
似然函数:
log似然:
最大化似然
损失函数求偏导:
2.2多分类softmax
softmax函数:
交叉熵:
求偏导:
其中前面部分易知:
后面部分求
当
当
三种损失函数的求导有一样的结果,具体和指数族分布和广义线性模型有关具体见指数分布族。
==========================
tips:softmax再具体编写的时候,为了避免
贴上python实现的logistic和softmax简单例子欢迎学习交流
阅读全文
0 0
- 交叉熵到logistic和softmax
- Softmax和交叉熵
- logistic和softmax原理、联系
- logistic回归和softmax回归
- logistic函数和softmax函数
- logistic函数和softmax函数
- Logistic & softmax
- Logistic and Softmax Regression (逻辑回归和Softmax回归)
- Logistic and Softmax Regression (逻辑回归和Softmax回归)
- 【优化】logistic和softmax代价函数
- 机器学习--logistic回归和softmax回归
- [Machine Learning] logistic函数和softmax函数
- logistic回归和softmax回归几个文章
- logistic分类函数和softmax分类函数
- tensorflow入门7 softmax函数和交叉熵损失函数
- Softmax函数与交叉熵
- 逻辑回归、交叉熵、softmax
- [深度学习]Softmax 交叉熵
- C#学习笔记之——重载
- jquery限制输入的数字为(8,2)格式
- NERSim v1.09a 1CD+HyperMILL 2018.1
- 一只程序猿的养成日记 第一章 第九节 小游戏 扫雷的实现
- TinyXML2使用方法及示例
- 交叉熵到logistic和softmax
- 我的Ubuntu脚印
- FLASHFTP简体中文破解版
- GOJ 1452(数论+前缀和查询)
- 日期查询:把easyUI的日期格式转成yyyy-MM-dd格式
- HTML5标签构成
- tar包的解压 和压缩
- 论文解读:Multi-view Clustering via Joint Nonnegative Matrix Factorization
- Linux下vsftpd安装配置与使用