《机器学习基石》课程笔记(2)

来源:互联网 发布:英国脱欧最新进展 知乎 编辑:程序博客网 时间:2024/06/07 16:36
  1. Perceptron Hypothesis Set
    对于银行是否发送信用卡的问题,把每位顾客的年龄、年收入等特征看成一个向量x=(x1,x2,...xd),计算顾客每个特征与权重的乘积之和,如果结果大于某个阈值(threshold),那么就发送信用卡,否则不发送信用卡。
    这里写图片描述
    根据以上的信息,我们就可以得到一个线性形式的h,它属于假设集合H。其中sign()是符号函数:
    h(x)=sign((i=1dwixi)threshold)

    仔细观察上面的式子,我们发现可以把最后的threshold当做w0,令x0=+1,那么h(x)就可以转化成如下的向量形式:
    这里写图片描述
    感知机是一个二元(线性)分类器,其几何表示为:在二维空间内表现为一条直线,三维空间内表现为平面,更高维的空间则表现为超平面。
  2. Perceptron Learning Algorithm(PLA)
    根据第一节的内容,我们可以找到超平面w将数据分为两部分,但是符合条件的超平面wi有很多个,那么我们如何找到最合适的超平面呢?
    我们可以这样来做:首先随机选取一个超平面wt,找到一个在当前被错误分类的点(xn(t),yn(t)),然后根据这个点去修正当前的超平面wt,得到一个新的超平wt+1,重复这项工作直到没有被错误分类的点为止,最后得到的超平面就是我们所要的。这就是感知机学习算法(PLA)。算法更详细的流程如下图所示,其中点的遍历顺序可以是随机的,也可以是按照某个特定顺序:
    这里写图片描述
    可以看出,当超平面不再犯错误的时候算法会停止。但是我们不能保证迭代多轮之后,算法一定能收敛,也就是说不能保证算法一定能停止。下面我们讨论PLA的收敛性。

  3. Guarantee of PLA
    PLA的目的是找到一个将所有数据正确分类的超平面,如果数据集本身不是线性可分的,那么PLA就不会收敛。所以PLA能够收敛的充要条件是数据集线性可分。
    当数据集线性可分的时候,一定会存在一个完美地wf对于所有的xn使得yn=sign(wTfxn)。由于wf是使得所有点都正确分类的一个超平面,那么每个点xnwf这个超平面的距离和yn的乘积一定是正数,所以有如下公式:

    yn(t)wTfxn(t)minnyn(t)wTfxn(t)>0

    当用(xn(t),yn(t))去更新wt时,wTfwt会逐渐增大:
    wTfwt=wTf(wt1+yn(t1)xn(t1))wTfwt1+minnyn(t1)wTfxn(t1)>wTfwt1+0

    注意,只有当wt1出现错误的时候我们才进行更新,如果出现分类错误,那么就有sign(wTt1xn(t1))yn(t1),即yn(t1)wTt1xn(t1)0。由于这个原因,wt2才会增长的比较缓慢,具体推导如下:
    wt2=wt1+yn(t1)xn(t1)2=wt12+2yn(t1)wTt1xn(t1)+yn(t1)xn(t1)2wt12+0+xn(t1)2wt12+maxnxn2wt22+2maxnxn2...tmaxnxn2

    由于yn(t1)只有11两个值,平方之后没有区别,所以在后面的推导中就省略掉了。根据上面的推导,我们看出wt每次增加的值不超过整个数据集空间的半径,所以wTfwt增加的原因不是因为wt的长度,而是因为两个向量之间的夹角变小了。
    根据上面的推导结果,可以得出如下结论:
    tminnyn(t1)wTfxn(t1)wTfwtwTfwttmaxnxn(t1)tminnyn(t1)wTfxn(t1)tmaxnxn

    γ=minn(ynwTfxn)R=maxnxn,则上式可以写成:
    tγtRt2γ2tR2

    所以
    t(Rγ)2

    上式表明,错误分类的次数t是有上界的,经过有限次迭代可以找到将训练数据完全分开的超平面。也就是说,当训练数据线性可分时,PLA是收敛的。

  4. Non-Separable Data
    PLA非常简洁,较少的代码量就可以实现,而且可以运行在任意维度上。但是它也有明显的缺点。首先,我们“假设”数据集是线性可分的,但是我们如何证明数据集真的是线性可分的呢?其次,我们只证明了PLA会收敛,但是它什么时候收敛?R可以轻易地求出来,但是γ是由wf计算出来的,而我们并不知道wf的值,假如我们知道wf,那还需要机器学习干什么呢?:-P
    如果数据集真的是线性不可分的,那么我们假定数据集中有一些噪点,允许算法有一定的错误,我们的目标是使得被错误分类的点最少,即:
    wgargminwn=1N[ynsign(wTxn)]

    这是一个NP-Hard问题,只能在多项式时间内找到近似解。下面介绍Pocket Algorithm就是一个利用贪心策略找出近似解的算法。具体如下图所示:
    这里写图片描述
    它和PLA的区别是只有当wt优于wt1,即当wt犯的分类错误比wt1少时,才更新wt
阅读全文
0 0
原创粉丝点击