【理论】支持向量机4:Outliers —— 介绍支持向量机使用松弛变量处理 outliers 方法

来源:互联网 发布:葡萄牙 法国 知乎 编辑:程序博客网 时间:2024/05/18 01:54

【原文:http://blog.pluskid.org/?p=692】

在最开始讨论支持向量机的时候,我们就假定,数据是线性可分的,亦即我们可以找到一个可行的超平面将数据完全分开。后来为了处理非线性数据,使用 Kernel 方法对原来的线性 SVM 进行了推广,使得非线性的的情况也能处理。虽然通过映射 ϕ() 将原始数据映射到高维空间之后,能够线性分隔的概率大大增加,但是对于某些情况还是很难处理。例如可能并不是因为数据本身是非线性结构的,而只是因为数据有噪音。对于这种偏离正常位置很远的数据点,我们称之为 outlier ,在我们原来的 SVM 模型里,outlier 的存在有可能造成很大的影响,因为超平面本身就是只有少数几个 support vector 组成的,如果这些 support vector 里又存在 outlier 的话,其影响就很大了。例如下图:

用黑圈圈起来的那个蓝点是一个 outlier ,它偏离了自己原本所应该在的那个半空间,如果直接忽略掉它的话,原来的分隔超平面还是挺好的,但是由于这个 outlier 的出现,导致分隔超平面不得不被挤歪了,变成途中黑色虚线所示(这只是一个示意图,并没有严格计算精确坐标),同时 margin 也相应变小了。当然,更严重的情况是,如果这个 outlier 再往右上移动一些距离的话,我们将无法构造出能将数据分开的超平面来。

为了处理这种情况,SVM 允许数据点在一定程度上偏离一下超平面。例如上图中,黑色实线所对应的距离,就是该 outlier 偏离的距离,如果把它移动回来,就刚好落在原来的超平面上,而不会使得超平面发生变形了。具体来说,原来的约束条件

yi(wTxi+b)1,i=1,,n

现在变成

yi(wTxi+b)1ξi,i=1,,n

其中 ξi0 称为松弛变量 (slack variable) ,对应数据点 xi 允许偏离的 functional margin 的量。当然,如果我们运行 ξi 任意大的话,那任意的超平面都是符合条件的了。所以,我们在原来的目标函数后面加上一项,使得这些 ξi 的总和也要最小:

min12w2+Ci=1nξi

其中 C 是一个参数,用于控制目标函数中两项(“寻找 margin 最大的超平面”和“保证数据点偏差量最小”)之间的权重。注意,其中 ξ 是需要优化的变量(之一),而 C 是一个事先确定好的常量。完整地写出来是这个样子:

mins.t.,12w2+Ci=1nξiyi(wTxi+b)1ξi,i=1,,nξi0,i=1,,n

用之前的方法将限制加入到目标函数中,得到如下问题:

L(w,b,ξ,α,r)=12w2+Ci=1nξii=1nαi(yi(wTxi+b)1+ξi)i=1nriξi

分析方法和前面一样,转换为另一个问题之后,我们先让 L 针对 wb 和 ξ 最小化:

Lw=0Lb=0Lξi=0w=i=1nαiyixii=1nαiyi=0Cαiri=0,i=1,,n

将 w 带回 L 并化简,得到和原来一样的目标函数:

maxαi=1nαi12i,j=1nαiαjyiyjxi,xj

不过,由于我们得到 Cαiri=0 ,而又有 ri0 (作为 Lagrange multiplier 的条件),因此有 αiC ,所以整个 dual 问题现在写作:

maxαs.t.,i=1nαi12i,j=1nαiαjyiyjxi,xj0αiC,i=1,,ni=1nαiyi=0

和之前的结果对比一下,可以看到唯一的区别就是现在 dual variable α 多了一个上限 C 。而 Kernel 化的非线性形式也是一样的,只要把 xi,xj 换成 κ(xi,xj) 即可。这样一来,一个完整的,可以处理线性和非线性并能容忍噪音和 outliers 的支持向量机才终于介绍完毕了。 :)

0 0