机器学习技法-Kernel Logistic Regression
来源:互联网 发布:全国复杂网络大会 编辑:程序博客网 时间:2024/06/05 13:24
大纲
上节课我们主要介绍了Soft-Margin SVM,即如果允许有分类错误的点存在,那么在原来的Hard-Margin SVM中添加新的惩罚因子C,修正原来的公式,得到新的
Soft-Margin SVM as Regularized Model
1 Slack Variables ξn
对于任意的
violation margin,即
(xn,yn) 不满足yn(wTzn+b)≥1 ,ξn=1−yn(wTzn+b)>0 not violation margin,即
(xn,yn) 满足yn(wTzn+b)≥1 ,ξn=0
所以我们可以把两种情况统一起来,得到一种无约束的形式的soft-margin SVM
2 Unconstrained Form
我们可以把
这个和我们以前学过的L2 regularization的形式有点类似
既然unconstrained form SVM与L2 Regularization的形式是一致的,而且L2 Regularization的解法我们之前也介绍过,那么为什么不直接利用这种方法来解决unconstrained form SVM的问题呢?
这种unconstrained form SVM的形式不是QP问题,对偶问题和核技巧都没有用
还有
max(⋅,0) 是不可导的,导致这个最优化问题很难被优化
3 SVM as Regularized Model
我们可以把SVM看做一种正则化模型,Soft-Margin SVM中的large margin对应着L2 Regularization中的short w,也就是都让hyperplanes更简单一些。Regularization中的
建立了Regularization和Soft-Margin SVM的关系,接下来我们将尝试看看是否能把SVM作为一个regularized的模型进行扩展,来解决其它一些问题。
SVM versus Logistic Regression
1 Algorithmic Error Measure of SVM
我们把SVM 的error函数画出来,如上图所示,我们称之为hinge error measure.它是0/1误差的凸的上界。因为
2 Connection between SVM and Logistic Regression
我们接着把Logistics Regression的 error function画出来。我们发现
3 Linear Models for Binary Classification
我们说正则化的logistic regression可以近似看做SVM,那么如果我们求解了一个SVM问题,那么SVM问题的解能否为logistic regression所用呢?
SVM for Soft Binary Classification
1 SVM for Soft Binary Classification
我们有两种Naive的思路
第一种思路是先得到SVM的解
(bsvm,wsvm) ,然后直接代入到logistic regression中,得到g(x)=θ(wTsvmx+bsvm) 。这种方法直接使用了SVM和logistic regression的相似性,一般情况下表现还不错。但是,这种形式过于简单,与logistic regression的关联不大,没有使用到logistic regression中好的性质和方法。第二种思路是同样先得到SVM的解
(bsvm,wsvm) ,然后把(bsvm,wsvm) 作为logistic regression的初始值,再进行迭代训练修正,速度比较快,最后,将得到的b和w代入到g(x)中。这种做法有点显得多此一举,因为并没有比直接使用logistic regression快捷多少。
下面我们介绍一种方法,可以融合两种算法的优势
2 A Possible Model: Two-Level Learning
我们构造以下函数
这个函数有两点优势
- 我们可以先得到SVM的解,这里可以利用核技巧。利用了SVM的优点
- 然后再用通用的logistic regression优化算法,通过迭代优化,得到最终的A和B。
一般缩放系数A>0,如果w_{SVM}相对来说不错,B
接下来我们就可以构造极大似然函数
这是一个只含有两个参数的最小化问题,我么可以利用GD/SGD.或者更好的方法求解。
我们称这个算法是Probabilistic SVM。下面我们总结一下算法思路
3 Probabilistic SVM
一般来说Probabilistic SVM的决策边界和SVM的决策边界不一致。
最后我们可以这样理解Kernel SVM,可以把Kernel SVM近似当做在Z空间中做logistics regression。
接下来我们介绍一种在Z空间中做logistics regression的精确方法。
Kernel Logistic Regression
1 Key behind Kernel Trick
首先我们回顾一下Kernel Trick的关键的地方,就是
然后,我们就可以引入核函数
我们之前介绍过SVM、PLA包扩logistic regression都可以表示成z的线性组合,这也提供了一种可能,就是将kernel应用到这些问题中去,简化z空间的计算难度。
2 Representer Theorem
首先我们介绍一下表示定理
对于L2-regularized linear model,如果它的最小化问题形式为如下的话,那么最优解
下面给出简单证明
至此,我们知道了所有的L2 regularized linear 都可以核化
3 Kernel Logistic Regression
下面我们尝试用核技巧来求解Logistic Regression
首先我们回顾一下以前的L2-regularized logistic regression 问题
因为表示定理的存在,即
上式中,所有的w项都换成
4 Kernel Logistic Regression (KLR) : Another View
我们可以从另外一个角度来看待Kernel Logistic Regression
上式中log项里的
如果我们把KLR当做是关于
如果我们把KLR当做是关于
最后值得注意的是,KLR中的系数
- 机器学习技法-5-Kernel Logistic Regression
- 机器学习技法-Kernel Logistic Regression
- 机器学习技法课程学习笔记5-- Kernel Logistic Regression
- 机器学习技法 笔记五 Kernel Logistic Regression
- 台湾大学林轩田机器学习技法课程学习笔记5 -- Kernel Logistic Regression
- 台湾国立大学机器学习技法.听课笔记(第五讲) :Kernel Logistic Regression
- 林轩田--机器学习技法--SVM笔记5--核逻辑回归(Kernel+Logistic+Regression)
- 机器学习笔记-Kernel Logistic Regression
- 机器学习 Logistic Regression
- 机器学习 logistic regression
- 机器学习-Logistic Regression
- 机器学习-Logistic Regression
- 机器学习之logistic Regression
- 机器学习笔记 - Logistic Regression
- logistic regression 分类:机器学习
- 机器学习: Logistic Regression--python
- 机器学习基石-Logistic Regression
- 机器学习之Logistic regression
- 简单的数组转制案例
- QT登陆验证机制并显示数据库内容
- JavaScript 实战3
- 中国剩余定理
- “戏”说Spark-Spark核心-Stage划分及Pipline的计算模式
- 机器学习技法-Kernel Logistic Regression
- Oracle数据库文件迁移步骤
- Linux任务计划cron
- 匿名对象
- 保存数据——删除
- java运算表达式中的一个小坑
- lua 模块
- 压缩感知稀疏基之离散小波变换
- 封装