Logistic 回归
来源:互联网 发布:无忧推广软件骗局 编辑:程序博客网 时间:2024/06/03 08:43
原来以为logistic回归只是很简单,没什么的干货的算法,在看了吴恩达老师的深度学习网易公开课和同学的交流之后,发现这个是很多算法的基础,很重要,这里系统的记录一下学习心得:
1.logistc分布
随机变量X服从Logistic分布,即有分布函数和密度函数如下:
两个函数的图如下:
图中
2.二项Logistic回归模型
看名字是回归,其实这是个分类模型,由条件概率分布P(Y|X)表示,随机变量X为实值,Y为0或1:
以上两个公式是从概率角度来看的,其实是只有一个公式P(Y=1|x),另外的P(Y=0|x)=1-P(Y=1|x),,所以我们只需要求公式3即可。所以供决策函数(Andrew NG)来看,所以目标属于Y=1类在特征x下的条件概率为:
一个事件的几率是指该事件发生与不发生的概率比值。如果该事件发生概率为p,那么几率为
可以看出,Logistic回归就是一般线性回归的对数几率,这里本人的理解是将一般线性回归(预测的值范围是整个实域),通过sigmoid压缩到(0,1)之间,转化成概率。
3.参数估计
可以采用极大似然估计估计参数模型,给定数据集T={
公式7中,当
值得一提的是,在Andrew NG的公开课中,将Logistic回归的单个样本的Loss函数定义为:
即传说中的log损失,整个样本集上的代价cost函数定义为
这两者并不冲突,在上述极大似然函数中求得是似然函数的极大值,损失函数或者代价函数求得是最小值,只是多个
通常采用梯度下降(极大似然估计采用梯度上升)或者拟牛顿法求解Logistic回归最优化问题。
4.多项Logistic回归(softmax分类,多分类任务)
多项Logistic回归又名softmax分类器,针对多分类问题。假设要分的类有K个,{1,2,3
4.总结
个人的一点看法即为,给定数据样本X(特征向量),数据标签Y,机器学习(回归,分类)的本质是妄图找出数据样本与其标签的之间的关系。在Logistic回归中,模型认为X,Y服从Logistic分布,尽力用该分布来拟合数据样本和标签。那么logistic回归为什么使用Log损失作为其损失函数呢,我的理解是这样的:
logistic回归模型是一个概率模型,因为在描述该分类时,我们其实是以概率来衡量的。从Logistic曲线就能看出,无论横坐标取什么值,它的值总是在[0,1]之间变化,它的物理含义很明确,指单个样例,在条件x下,出现的【概率】。所有单个样本都对应于一个概率,用概率模型来描述这个分类过程就是:给定样本X,试图求出模型参数
对于模型本身来说,可以不看
要想最大化左边的
这是针对单个样本而言,在每个样本出现的条件下
这就是似然函数,取对数就是Log损失。
阅读全文
0 0
- Logistic回归
- Logistic回归
- logistic回归
- Logistic 回归
- Logistic 回归
- logistic回归
- Logistic回归
- Logistic回归
- Logistic回归
- Logistic回归
- logistic回归
- Logistic回归
- logistic回归
- Logistic 回归
- logistic回归
- Logistic回归
- logistic回归
- Logistic回归
- 多线程相关面试题及其解答
- 移动端 rem 布局的一些总结
- Apache & Tomcat 集群
- Android自动化测试之Monkeyrunner使用方法及实例
- as3 addEventListener各参数详解
- Logistic 回归
- Jvm 内存模型
- mysql 启动数据库时发生错误:10038
- 专为移动应用提供后台服务的Parse
- MapReduce程序服务器部署
- 自定义valida验证注解
- 一步步实现 Prism + MEF(一)--- 搭建框架
- 博凌科技携手中企动力用互联网思维卖乐器
- 众数问题