PLA算法详解及实现(R语言)

来源:互联网 发布:淘宝商品购物车加不了 编辑:程序博客网 时间:2024/06/07 03:49

主发现之前写的博客都是偏程序方面,而较少涉及数学或算法方面的东西,其实无论什么软件工具,最终都是为了更好地给理论铺路搭桥,所以我觉得不应该就某个程序贴个博客,而是在实际算法研究中,将理论描述清晰,再通过工具实现,两个结合。

      废话不多说,最近上台湾大学的ML课程,说到PLA(perception learning algorithm)算法,涉及到ML的一个入门算法,我花了一些时间消化整理,在这里跟大家分享一下,希望大家再回过头去看台湾大学ML课程的时候,能更加如鱼得水。

算法具体如下:

      PLA是一种能够通过自己学习而不断改进的分类算法,可将二维或者更高维的数据切分成对应不同的种类(1和-1),假设我们有n个数据样本,每个数据样本对应的维度为m,可以表示成如下:

clip_image002

      对于每个样本,其对应的类别为1或-1,可表示为如下:

clip_image004

      我们假设一条直线:

clip_image006

      其对应为样本m个维度的系数,这里需要注意的是,我们的目标是求解出W的值,将对应的两种类别很好地分开,而不是在样本中做回归求误差最小。

      所以我们的目标是使下面式子成立:

clip_image008

      其中sign是符号函数,对于所有的正数,返回1,对于所有非正数返回-1.

      可以通过将clip_image010表示为clip_image012而化简上市,其中clip_image014,则有如下:clip_image016                                                                                                   (1)

      实际过程中上述等式可能没办法在一开始就成立,所以当等式不成立的时候,我们需要某种方法来修正过程中的W参数,下面举个栗子:

      比如我们计算出来:clip_image018      是正的,而clip_image020却是负的,从某种意义上来说,W参数是偏大的;而当clip_image018[1]是负的,而对应的clip_image020[1]却是正的,那么W参数是偏小的,那么,我们该如何调整W参数呢?

可以通过如下:

clip_image022

      这样我们就可以通过将对应的W参数自主学习调整为越来越靠近正确的W。

也许你会问,为什么这样通过修改W最后一定会收敛?或者换个说法,为什么通过这样不断地变化W参数,最后一定会有一条直线能将样本较好地分开呢?

      下面我会证明上面这个问题,也就是证明PLA算法的收敛性:

      假设存在一条直线clip_image024能将我们样本数据很好分类,那么则有:

clip_image026

      该式对应上文式(1),这里我通过向量表示消除符号过多的问题。

      为了证明W会朝着clip_image028靠拢,我们可以构造如下式子:

clip_image030                                                                                                   (2)

其中我们上文以及假设clip_image028[1]是正确的分类线,那么意味式(2)中clip_image032

则算法在每次迭代修改W时,clip_image034,那么从向量内积的角度来看,这意味着两个向量越来越靠近。

      也许你还会问,两个向量内积越来越大,除了角度变小的可能外,还有两个向量越来越大的可能?

下面我会证明其实在W参数学习的过程中其单位长度在不断变小:

clip_image036

其中我们已经知道clip_image038clip_image040符号相异,那么clip_image042

则在W自主学习的过程中,其模clip_image044越来越小,而上述式(2)我们证明了clip_image046越来越大,那么综合只有当向量clip_image028[2]clip_image049的角度越来越小时,式(2)才会成立,所以我们证明了自主学习,W会朝着越来越正确的方向变动(即使有时候这种变动我们察觉不出)。

      PLA算法在多维度分类效果也比较好,收敛速度很快,这里博主用的是双维度样本,该样本在更新1400多次后输出了对应的结果,代码质量还有待改进。      

 

下面是算法的实现(R语言)

#加载ggplot2包

library(ggplot2)

library(plyr)

#PLA数据,取R自带数据集iris,确保直线下方数据标签为-1

     pladata <- data.frame(x1=iris[1:100,1],x2=iris[1:100,2],y=c(rep(1,50),rep(-1,50)))

     ggplot(data=pladata,aes(x1,x2,col=factor(y)))+geom_point()     #样本数据展示

#PLA函数,x表示样本数据,y为对应类别,initial为w初始值,delta为相对误差率

PLA <- function(x,y,initial,delta){

           w <- initial;n <- length(y);

           x <- as.matrix(cbind(x0=rep(1,dim(x)[1L]),x))

           error <- 1

           while(error > delta){

              if(all(sign(x %*% w)==y)){

                   error <- 0

              }else{

                   xnt <- which(sign(x %*% w)!=y)

                   w <- w + x[xnt[1],] * rep(y[xnt[1]],dim(x)[2L])

                   xnt1 <- which(sign(x %*% w)!=y)

                   error <- length(xnt1)/n

              }

       }

             names(w) <- paste("w",0:(dim(x)[2L]-1),sep="");print(w);

}

w <- PLA(x=pladata[,1:2],y=pladata[,3],initial=c(1,0,0),delta=0)

#分类结果展示:

names(w) <- NULL

ggplot(data=pladata,aes(x1,x2,col=factor(y)))+

geom_point()+

geom_abline(aes(intercept=(-w[1]/w[3]),slope=(-w[2]/w[3])))

 

      其中未分类前的散点图如下:

算法篇:PLA算法详解及实现(R语言)

      通过自主学习训练后的结果如下:

算法篇:PLA算法详解及实现(R语言)




      如果有什么问题可以留言探讨哦。

原创粉丝点击