简单易学的机器学习算法——线性支持向量机
来源:互联网 发布:淘宝积分怎么查手机 编辑:程序博客网 时间:2024/05/21 22:29
一、线性支持向量机的概念
线性支持向量机是针对线性不可分的数据集的,这样的数据集可以通过近似可分的方法实现分类。对于这样的数据集,类似线性可分支持向量机,通过求解对应的凸二次规划问题,也同样求得分离超平面
以及相应的分类决策函数
二、与线性可分支持向量机的比较
线性支持向量机与线性可分支持向量机最大的不同就是在处理的问题上,线性可分支持向量机处理的是严格线性可分的数据集,而线性支持向量机处理的是线性不可分的数据集,然而,在基本的原理上他们却有着想通之处。这里的线性不可分是指数据集中存在某些点不能满足线性可分支持向量机的约束条件:。
具体来讲,对于特征空间上的训练数据集,且不是线性可分的,即存在某些特异点不满足的约束条件,若将这些特异点去除,那么剩下的数据点是线性可分的,由此可见,线性可分支持向量机是线性支持向量机的特殊情况。为了解决这样的问题,对每个样本点引入一个松弛变量,且,则上述的约束条件被放宽,即:
此时目标函数变为:
其中称为惩罚参数,且。在线性支持向量机中加入了惩罚项,与线性可分支持向量的应间隔最大化相对应,在线性支持向量机中称为软间隔最大化。
三、线性支持向量机的原理
由上所述,我们得到线性支持向量机的原始问题:
接下来的问题就变成如何求解这样一个最优化问题(称为原始问题)。引入拉格朗日函数:
其中,。
此时,原始问题即变成
利用拉格朗日函数的对偶性,将问题变成一个极大极小优化问题:
首先求解,将拉格朗日函数分别对求偏导,并令其为0:
即为:
将其带入拉格朗日函数,即得:
第二步,求,即求:
由可得,因为在第二步求极大值的过程中,函数只与有关。
将上述的极大值为题转化为极小值问题:
这就是原始问题的对偶问题。
四、线性支持向量机的过程
1、设置惩罚参数,并求解对偶问题:
假设求得的最优解为;
2、计算原始问题的最优解:
选择中满足的分量,计算:
3、求分离超平面和分类决策函数:
分离超平面为:
分类决策函数为:
五、实验的仿真
1、解决线性可分问题
与博文“简单易学的机器学习算法——线性可分支持向量机”实验一样,其中取中的最大值。
MATLAB代码为
%% 线性支持向量机% 清空内存clear all;clc;%简单的测试数据集X = [3,3;4,3;1,1];y = [1,1,-1];%标签A = [X,y'];m = size(A);%得到训练数据的大小% 区分开特征与标签X = A(:,1:2);Y = A(:,m(1,2))';for i = 1:m(1,1) X(i,:) = X(i,:)*Y(1,i);end%% 对偶问题,用二次规划来求解H = X*X';f = ones(m(1,1),1)*(-1);B = Y;b = 0;lb = zeros(m(1,1),1);% 调用二次规划的函数[x,fval,exitflag,output,lambda] = quadprog(H,f,[],[],B,b,lb);% 定义CC = max(x);% 求原问题的解n = size(x);w = x' * X;k = 1;for i = 1:n(1,1) if x(i,1) > 0 && x(i,1)<C b(k,1) = Y(1,i)-w*X(i,:)'*Y(1,i); k = k +1; endendb = mean(b);% 求出分离超平面y_1 = [0,4];for i = 1:2 y_2(1,i) = (-b-w(1,1)*y_1(1,i))./w(1,2);endhold onplot(y_1,y_2);for i = 1:m(1,1) if A(i,m(1,2)) == -1 plot(A(i,1),A(i,2),'og'); elseif A(i,m(1,2)) == 1 plot(A(i,1),A(i,2),'+r') endendaxis([0,7,0,7]) hold off
实验结果为:
(线性可分问题的分离超平面)
2、解决线性不可分问题
问题为:
(线性不可分问题)
MATLAB代码:
%% 线性支持向量机% 清空内存clear all;clc;% 导入测试数据A = load('testSet.txt');% 处理数据的标签m = size(A);%得到训练数据的大小for i = 1:m(1,1) A(i,m(1,2)) = A(i,m(1,2))*2-1;end% 区分开特征与标签X = A(:,1:2);Y = A(:,m(1,2))';for i = 1:m(1,1) X(i,:) = X(i,:)*Y(1,i);end%% 对偶问题,用二次规划来求解H = X*X';f = ones(m(1,1),1)*(-1);B = Y;b = 0;lb = zeros(m(1,1),1);% 调用二次规划的函数[x,fval,exitflag,output,lambda] = quadprog(H,f,[],[],B,b,lb);% 定义C% C = mean(x);C = max(x);% 求原问题的解n = size(x);w = x' * X;k = 1;for i = 1:n(1,1) if x(i,1) > 0 && x(i,1)<C b(k,1) = Y(1,i)-w*X(i,:)'*Y(1,i); k = k +1; endendb = mean(b);% 求出分离超平面y_1 = [-4,4];for i = 1:2 y_2(1,i) = (-b-w(1,1)*y_1(1,i))./w(1,2);endhold onplot(y_1,y_2);for i = 1:m(1,1) if A(i,m(1,2)) == -1 plot(A(i,1),A(i,2),'og'); elseif A(i,m(1,2)) == 1 plot(A(i,1),A(i,2),'+r') endendhold off
实验结果为:
(线性不可分问题的分离超平面)
注:这里的的取值很重要,的取值将决定分类结果的准确性。
2 0
- 简单易学的机器学习算法——线性支持向量机
- 简单易学的机器学习算法——线性可分支持向量机
- 简单易学的机器学习算法——支持向量机(开篇:基本概念)
- 简单易学的机器学习算法——非线性支持向量机
- 简单易学的机器学习算法——线性回归(1)
- 简单易学的机器学习算法——线性回归(2)
- 简单易学的机器学习算法——Apriori算法
- 简单易学的机器学习算法——Apriori算法
- 简单易学的机器学习算法——EM算法
- 简单易学的机器学习算法——朴素贝叶斯
- 简单易学的机器学习算法——Logistic回归
- 简单易学的机器学习算法——lasso
- 简单易学的机器学习算法——Softmax Regression
- 简单易学的机器学习算法——lasso
- 简单易学的机器学习算法——kMeans
- 简单易学的机器学习算法——AdaBoost
- 简单易学的机器学习算法——Gibbs采样
- 简单易学的机器学习算法——Softmax Regression
- 第14条:在公有类中使用访问方法而非直接使用公有域
- 计算机视觉领域的一些牛人博客,超有实力的研究机构等的网站链接
- SQL Server 建立连接时出现与网络相关的或特定于实例的错误
- 数学之美系列九:如何确定网页和查询的相关性
- [C] Indian Hill C Style(印第安山风格指南)
- 简单易学的机器学习算法——线性支持向量机
- 我们来看看犀牛建模到底有哪些技巧1(先说切块思想)转载
- box2d 刚体 编辑器
- XMPPFramework环境搭建
- VC使用ADO连接SQLServer数据库(精简实用版)
- 详解java内存泄露和内存溢出
- javase学习笔记-----JAVA语言基础组成
- MySql-5.0.22数据库安装过程
- 【OpenCV】SIFT原理与源码分析:DoG尺度空间构造