softmax 回归原理及python实现
来源:互联网 发布:兰蔻小黑瓶眼膜霜 知乎 编辑:程序博客网 时间:2024/04/29 00:15
softmax回归python实现程序
1、Logistic回归:
1.1、逻辑回归数据集
1.2、 样本发生的概率,即y取1的概率:
1.3、整个样本的似然函数为:
- 似然函数
L=∏hθ(x(i))y(i)(1−hθ(x(i)))1−y(i) - 对数似然函数为:
logL=∑i=1m(y(i)log(hθ(x(i))+(1−y(i))log(1−hθ(x(i))))
1.4、代价函数,及代价函数偏导:
- 代价函数
J(θ)=−1m∑i=1m(y(i)log(hθ(x(i))+(1−y(i))log(1−hθ(x(i)))) - 代价函数的偏导数:
∂J(θ)∂θj=−1m(∑i=1m(y(i)−hθ(x(i)))x(i))
1.5、梯度下降更新参数:
1.6、对参数L2正则化
对于逻辑回归,L2正则化之后,损失函数为 :J(θ)=−1m(∑i=1m(y(i)log(hθ(x(i)))+(1−y(i))log(1−hθ(x(i))))+λ2m∑j=1nθ2 θ迭代更新公式为 θj:=θj+αm(∑i=1m(y(i)−hθ(x(i))x(i)j)−αλmθj(j=1,...,n) θj为每列x对应的参数,为一个数
2、softmax回归:
2.1、softmax回归数据集
x(m)表示x的一行数据,可能包含多列,是一个向量
2.2、softmax概率函数
θ为一个k×(n+1)的矩阵
θ=⎡⎣⎢⎢⎢⎢⎢θT1θT2⋮θTk⎤⎦⎥⎥⎥⎥⎥
2.3、softmax回归的损失函数为:
- 损失函数的矩阵形式为:
Jθ=−1msum(Y logP) - 对Y相应的解释
y=⎡⎣⎢⎢⎢⎢⎢⎢1100k⎤⎦⎥⎥⎥⎥⎥⎥
对应Y为Y=⎡⎣⎢⎢⎢⎢⎢⎢0011011000⋯⋯⋯⋯⋯00001⎤⎦⎥⎥⎥⎥⎥⎥
y=k 则第k列数字对应1,其余列为0.
2.4、softmax回归损失函数的偏导为:
- 矩阵形式为:
▽θJ(θ)=−1m(Y−P)TX
(Y−P)维度为m×k,X为m×(n+1)
2.5、对参数正则化处理
- 损失函数:
J(θ)=−1m⎡⎣∑i=1m∑j=1k1{y(i)=j}logexp(θTjx(i))∑kl=1exp(θTlx(i))⎤⎦+λ2∑j=1k∑b=0nθ2jb - 损失函数关于
θj 的偏导为:
2.6、更新参数
θj为一个向量
矩阵更新:
θ 为一个矩阵
0 0
- softmax 回归原理及python实现
- SoftMax回归简介及python代码实现
- 深度学习入门---softmax回归 Python实现
- softmax原理及Matlab实现
- logistic回归算法原理及python实现
- Softmax回归原理简介
- Softmax回归原理
- Softmax回归C++实现
- Tensorflow实现softmax回归
- softmax分类算法原理(用python实现)
- softmax分类算法原理(用python实现)
- 机器学习之Softmax回归(Python实现)
- Python下的Softmax回归函数的实现方法
- 使用Softmax回归实现MNIST
- SoftMax原理及代码
- Softmax回归原理简介+代码详解
- Softmax回归原理简介+代码详解
- SOFTMAX 的python实现
- Atom 编辑器安装 linter-eslint 插件,并配置使其支持 vue 文件中的 js 格式校验
- mongodb学习日记一--------------------------安装及注意事项
- cmake使用介绍【转】
- JavaWeb开发基础——JavaScript(一)
- Android中Bitmap, Drawable, Byte,ID之间的转化
- softmax 回归原理及python实现
- Parade。。。。
- 百度地图坐标定位
- 每日积累小细节
- mongodb学习日记二--------------------------常用操作
- Classifying MNIST digits using Logistic Regression 代码个人,理解
- GLSL学习第一课笔记记录
- amazon web services的一些知识
- 方法重载,重写的区别