coursera机器学习技法笔记(5-6)——将核方法应用于回归
来源:互联网 发布:岛风go mac版 编辑:程序博客网 时间:2024/06/05 11:17
5 Kernel Logistic Regression
5.1 Soft-Margin SVM as Regularize Model
本节主要从正则化模型的观点来讲解Soft-SVM。首先看一下Soft-SVM的模型:
由于
因此该模型也可以看做是损失函数
5.2 SVM versus Logistic Regression
本节从损失函数上限的角度来阐述了Soft-SVM和Logistic回归的关系,SVM的损失曲线是过
可以看到的是,当
相比较而言,在损失函数方面,PLA算法是希望直接优化0/1错误函数,SVM通过二次规划来逼近0/1错误,logistic回归则通过梯度下降来进行优化;在算法的质量保证方面,SVM通过最大边际来从理论上保证降低VC维,而logistic回归则利用正则化来限制VC维。它们的缺点都在于其损失函数都只是降低0/1损失函数的上限,而这个上限在
5.3 SVM for Soft Binary Classification
由于SVM和对数回归的相似性,因此希望使用核方法使得对数回归能在Z空间内运行。这里先介绍了一个近似的方法,叫probabilistic SVM。即先利用kernel SVM在Z空间得出分数
5.4 Kernel Logistic Regression
5.4.1 用加权样本表示最优解
先进行一项证明,所有的带二次正则化的线性模型都可以将所需求解的权重
将最优解
其中,
可知,在不改变损失函数的情况下,存在比
5.4.2 线性模型的对偶问题以及核函数的运用
由此,我们可以令
可以看到,原优化问题被转换成了以优化β为目标的对偶问题,并出现了可以使用核函数进行计算的内积计算
同样这个模型还有另一种解释,即将核函数
6 Support Vector Regression
6.1 Kernel Ridge Regression
本节主要将核方法推广到线性模型中:
将
对
6.2 Support Vector Regression Primal
使用了上节的核方法来进行回归后发现所使用到的”支持向量”非常多,这是因为求解
将原目标转变为以下目标:
其中,
模仿SVM的求解方法,设置距离损失度量
然后令
6.3 Support Vector Regression
接上节,加入拉格朗日乘子,可以将以上目标转换为对偶问题,流程相同,以下给出部分结果:
并且最后的带核函数的对偶问题是:
由以上推导可知,当
6.4 Summery of Kernel Models
本节对此前(包括机器学习基石)所接触到的线性模型都做了一次小结:
(1)无核
PLA/Pocket:使用0/1损失函数,并用特殊方法求解。
Linear SVR:使用TUBE损失函数,并用二次规划求解。
Soft-SVM:使用SVM损失函数,并用二次规划求解。
Linear regression:使用二次损失函数,并求解析解。
Logistic regression:使用对数损失函数,并用梯度下降/随机梯度下降求解。
相比较而言,前面两个不常用,因为效果差。
(2)有核
Kernel linear regression:线性回归加核函数,可求解析解。
Kernel logistic regression:由logistic regression加核函数而来,用二次规划求解。
Soft-SVM对偶问题:由SVM加核函数求对偶问题而来,用二次规划求解。
Kernel Linear SVR:由Linear加核函数求对偶问题而来,用二次规划求解。
Probabilistic SVM:先运行SVM再放入logistic回归中。
相比较而言,前面两者不经常用,因为加入核函数后导致所有样本均对最后的w有贡献,使得预测新样本代价太大,因而应转换为对偶问题求解。
- coursera机器学习技法笔记(5-6)——将核方法应用于回归
- coursera机器学习技法笔记(12)——Neural Network
- coursera机器学习技法笔记(15)——Matrix Factorization
- COURSERA机器学习笔记——单变量线性回归
- COURSERA机器学习笔记——多变量线性回归
- coursera机器学习技法笔记(1-4)——Support Vector Machine
- coursera机器学习技法笔记(7-8)——blending and bagging & Adaptive Boosting
- coursera机器学习技法笔记(9-11)——decision tree & Random forest & GBDT
- coursera机器学习技法笔记(13-14)——deep learning & RBFNetwork
- 林轩田--机器学习技法--SVM笔记5--核逻辑回归(Kernel+Logistic+Regression)
- 《机器学习技法》学习笔记03——核SVM
- coursera 机器学习课程笔记(一)——回归问题
- 《机器学习技法》学习笔记13——深度学习
- 林轩田--机器学习技法--SVM笔记6--支持向量回归(Support+Vector+Regression)
- 【机器学习】coursera学习笔记(三) 多变量线性回归
- 《机器学习技法》学习笔记01——线性SVM
- 《机器学习技法》学习笔记02——对偶SVM
- 《机器学习技法》学习笔记12——神经网络
- 网络:RSA 密钥创建方法
- 是你教会了我-如何爱
- mongo入门--基本参数配置
- 基于 Python Matplotlib 模块的高质量图形输出
- HDU 1002 A + B Problem II
- coursera机器学习技法笔记(5-6)——将核方法应用于回归
- 《Linux内核设计与实现》——第4章(进程调度)
- 杭电1032:The 3n + 1 problem
- Android中DialogFragment的使用
- UITextKit框架的学习(二)
- Leetcode Edit Distance
- Android Jni 开发(Android studio)
- 绘图: matplotlib核心剖析
- 保留浮点数的两位小数点