机器学习基石-Learning to Answer Yes/No

来源:互联网 发布:淘宝上925银饰品真假 编辑:程序博客网 时间:2024/06/05 11:22

课程大纲

这里写图片描述

Perceptron Hypothesis Set

1.Hypothesis的线性表示

  • x=(x1,x2,...xd)
  • y={+1,1}

h(x)=sign((i=1dwixi)thershold)

2.Hypothesis的向量表示

h(x)=sign(wTx)

3.Hypothesis的图像表示

这里写图片描述

  • x:平面上的点
  • y(+1),(1)
  • hypothesis:平面上的线,不同的w代表不同的线,也代表不同的假设

Perceptron Learning Algorithm

1.算法的目的:从假设空间寻找一个比较好的假设

这里写图片描述

2.算法的流程

这里写图片描述

这里解释一下右图:
我们知道犯错有两种情况

  • x是正类,错分为负类,即wTx<0,wx向量夹角是钝角,所以我们需要纠正一下w,也就是w+yx,在w上加上一个正向量,让wx更近一些.
  • x是负类,错分为正类,即wTx>0,wx向量夹角是锐角,所以我们需要纠正一下w,也就是w+yx,在w上加上一个负向量,让wx更远一些

Guarantee of PLA

如果要保证PLA是收敛的,前提是数据集是线性可分的(Linear Separability)

算法的收敛性

(1)由于训练数据是线性可分的,存在超平面可将训练数据集完全正确分开,取此超平面为ŵ optx̂ =0,使wopt^2=1对于训练数据集均有

yi(ŵ optxi^)>0

所以存在
γ=mini{yi(ŵ optxi^)}

使
yi(ŵ optxi^)γ

(2)

wk^wopt^=wk1^wopt^+yiwopt^xi^wk1^wopt^+γ=kγ

(3)

因为

yi(wk1^xi^)0

定义
R=max1iNxi^

wk^2=wk1^+2yiwk1^xi^+xi^wk1^+xi^wk1^+R2=kR2

所以有

kγwk^wopt^wk^wopt^kR

k(Rγ)2

说明误分类的次数是有上界的,经过有限次搜索可以找到训练数据完全正确分开的的分离超平面,也就是说,当训练数据线性可分时,感知机学习算法形式迭代是收敛的

阅读全文
0 0
原创粉丝点击