机器学习第六讲-逻辑回归
来源:互联网 发布:下载最快的软件 编辑:程序博客网 时间:2024/06/04 20:00
机器学习第六讲——逻辑回归
本文将着重讲解机器学习领域,在二分类问题中,较为常用的分类方法——逻辑回归(Logistic Regression, LR)。我们将从如下四个方面进行讲解:
一、逻辑回归的定义
二、逻辑回归的用途
三、逻辑回归理论分析
四、算法实现
一、逻辑回归的定义
同最小二乘算法一样,逻辑回归(Logistic Regression, LR)算法属于广义线性模型(generalizedlinear model),是机器学习领域较为常用的算法。LR算法基于Sigmoid激活函数,将输入变量映射到二值空间,适用于机器学习中的二分类问题。
二、逻辑回归算法的用途
如上面所述,LR算法运用在机器学习领域的二分类问题。例如垃圾邮件拦截,疾病诊断等等。
三、LR理论分析
我们采用一个例子,进行LR回归的理论介绍。考虑如下的样本分布:
上图是一个二分类问题的例子,前两列为输入,最后一列为输入。同一般二分类问题一样,输出label为0或者1。至于为什么是0或者1,而不是其他两个不同的数字,主要和Sigmoid的函数输出相对应。在后面的讲解中,将会有所体会。我们将散点图画出来:
从上图可以看到,我们可以采用一条直线,将两组数据分开。
我们希望直线上方的数据带入直线方程,输出为1,或者接近1的某个数;同理,直线下方的数据带入直线方程,输出为0,或者非常接近0的某个数。
针对本问题,我们设直线方程为:
其中与为数据的两个输入,而为输出。为了简便,我们写成向量形式:。构造如下的分类函数:
熟悉Sigmoid函数的朋友应该清楚,S函数的输出为0到1间的连续值。故上面的分类函数,将原输入数据映射到S函数的输出域中。由于S函数的输出特性,正好和概率对应上,我们可以把上式的输出理解为,样本取该值时的概率。
上式可以合并起来:
采用最大似然估计法,进行的求解。构造似然函数:
为了更好地对似然函数求解,我们对似然函数两边同时取对数:
那么,。
采用梯度下降法,进行值得更新,求取第个的梯度:
那么:
仿真结果如下图所示:
附件:数据和程序。
阅读全文
0 0
- 机器学习第六讲-逻辑回归
- Stanford 机器学习 第四讲-------逻辑回归(Logistic Regression)
- Standford 机器学习—第三讲 Logistic Regression 逻辑回归
- 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)”
- 斯坦福大学机器学习第六课“逻辑回归(Logistic Regression)”
- 机器学习-逻辑回归
- 机器学习:逻辑回归
- 机器学习---逻辑回归
- 【机器学习】逻辑回归
- 机器学习----逻辑回归
- 机器学习 逻辑回归
- 机器学习:逻辑回归
- 机器学习--逻辑回归
- 机器学习-逻辑回归
- 机器学习-- 逻辑回归
- 机器学习-逻辑回归
- 机器学习-逻辑回归
- 【机器学习】--逻辑回归
- 本地广播Broadcast
- wx.onMenuShareTimeline使用注意事项
- 1.2Java基础语法(关键字、标识符、注释、常量、变量...)
- oracle使用命令exp导出时,不能将表导出的解决办法
- Android中自定义圆形图片(二)
- 机器学习第六讲-逻辑回归
- Java链表及字符串反转问题集
- raid5_cache.c数据结构之r5l_io_unit
- Netty5.0+ 心跳机制(四)
- Item属性
- 09 redis集群的搭建 以及遇到的问题
- office图标显示异常和新建时图标没有显示等问题解决
- spark2.0-scala2.11.8-hadoop2.8.0配置
- 124. Binary Tree Maximum Path Sum&145.Binary Tree Postorder Traversal