【机器学习算法】LR以及正则项
来源:互联网 发布:saas软件服务 编辑:程序博客网 时间:2024/06/06 05:47
一,手推Logistic回归
logistic回归基于线性分类
1,对于样本集D={(x1,y1),(x2,y2),…,(xn,yn)}有n个样本,每个样本有x = (x1;x2;…;xd) d个维度,y={y=0,y=1}。在对其进行线性分类的时候有:
其中θ,b是要训练的参数。
2,对于二分类来说,f(x)是一个实数,现在欲将其映射到(0,1)的区间上。于是logistic回归的假设为:
sigmoid的好处是理论上可以任何数投影到(0,1)之间。
3,其损失函数为:
这样表示的才是简单粗暴,比较清晰的,
将5.4的公式合并,以及将所有样本的损失函数放在一起,结果如下:
4,当然还需要加入正则项来防止过拟合。
下面就可以使用随机梯度下降等优化方法来求解最优的参数theta了,不过这不是本篇博客的重点,所以就算了。
二,正则项小议
L1正则化和L2正则化可以看做是损失函数的惩罚项。所谓『惩罚』是指对损失函数中的某些参数做一些限制。对于线性回归模型,使用L1正则化的模型建叫做Lasso回归,使用L2正则化的模型叫做Ridge回归(岭回归)。
损失函数以均方误差,其加上L1,L2的损失函数为:
一般回归分析中回归w表示特征的系数,从上式可以看到正则化项是对系数做了处理(限制)。L1正则化和L2正则化的说明如下:
* L1正则化是指权值向量w中各个元素的绝对值之和,通常表示为||w||1
* L2正则化是指权值向量w中各个元素的平方和然后再求平方根(可以看到Ridge回归的L2正则化项有平方符号),通常表示为||w||2
L1和L2正则化的直观理解
假设有如下带L1正则化的损失函数:
求解J0的过程可以画出等值线,同时L1正则化的函数L也可以在w1w2的二维平面上画出来。如下图:
图中等值线是J0的等值线,黑色方形是L函数的图形。在图中,当
同样的假设有如下带L2正则化的损失函数:
可以画出他们在二维平面上的图形,如下:
二维平面下L2正则化的函数图形是个圆,与方形相比,被磨去了棱角。因此
因为在最小化损失函数的时候加上了L2正则化因此最终的最优解会是的参数量和参数本身都不会太大,最终达到抑制过拟合的作用。
L1,L2总结:
- L1正则化是指权值向量w中各个元素的绝对值之和,通常表示为
∑||w|| - 使用L1能够得到数据的稀疏特征
- L2正则化是指权值向量w中各个元素的平方和然后再求平方根(可以看到Ridge回归的L2正则化项有平方符号),通常表示为
∑||w||2 - 使用L2能够比较好的抑制模型过拟合
其他比较好的博文:
L1,L2:
http://blog.csdn.net/jinping_shi/article/details/52433975
LR:
http://www.cnblogs.com/GuoJiaSheng/p/3928160.html
http://blog.csdn.net/xierhacker/article/details/53316138
- 【机器学习算法】LR以及正则项
- 机器学习中的Logistic回归算法(LR)
- 机器学习算法02-逻辑回归LR
- 机器学习算法-逻辑回归(LR)
- 机器学习LR入门
- 机器学习实战 LR
- 机器学习算法——LR(逻辑回归)
- 机器学习算法之: 逻辑回归 logistic regression (LR)
- 机器学习常用算法(LDA,CNN,LR)原理简述
- 机器学习算法——逻辑回归(LR)
- 机器学习算法之正则化
- 新型机器学习算法:正则化理解
- 机器学习算法逻辑回归(LR)的学习与应用(疾病问诊)
- 机器学习经典算法详解及Python实现---Logistic回归(LR)分类器
- cs229 斯坦福机器学习笔记(二)-- LR回顾与svm算法idea理解
- 《常用的机器学习算法——SVM与LR的联系和区别》
- 机器学习经典算法详解及Python实现---Logistic回归(LR)分类器
- 机器学习算法概述以及分类
- 计算两整数的最大值
- 预习内容
- 201312-1 出现次数最多的数
- AngularJS控制器
- 4.1.分析并写出下面程序的运行结果
- 【机器学习算法】LR以及正则项
- ienavigator
- 使用make_ext4fs制作文件系统时写入文件安全上下文的方法
- angularjs过滤器
- AngularJS指令
- 并发工具包—阻塞队列BlockingQueue
- ssm框架整合(更新中)
- AngularJS入门
- 将小写字母转换为大写字母