感知机Perceptron
来源:互联网 发布:上瘾网络剧什么时候播 编辑:程序博客网 时间:2024/05/19 12:41
感知机学习策略
数据假设和学习目标
假设训练数据是线性可分的,感知机学习的目标是求得一个能够将训练集正实例点和负实例点完全正确分开的分离超平面。
损失函数
损失函数的一个自然选择是误分类点的总和。但这样的损失函数不是参数w,b的连续可导函数,不易优化。
另一个选择是误分类点到超平面S的总距离。
假设超平面S的误分类点集合为M,那么所有误分类点到超平面的总距离为
不考虑
感知机学习算法
原始形式primal
感知机学习算法是误分类驱动的,具体采用随机梯度下降法(stochastic gradient descent)。首先,任意选取一个超平面
原始算法描述
给定感知机模型
f(x)=sign(w⋅x+b)
1. 选取初值w0,b0
2. 在训练集中选取数据(xi,yi)
3. 如果yi(w⋅xi+b)≤0
wb←w+ηyixi←b+ηyi
4. 转至2,直到训练集中没有误分类点。
直观解释:
当一个实例点被误分类,即位于分离超平面的错误一侧时,则调整
感知机学习算法由于采用不同的初值或选取不同的误分类点,解可以不同。
算法的收敛性
对偶形式dual
对偶形式的基本想法是,将w和b表示为实例
对误分类点
逐步修改w,b。设修改n次,则w,b关于
这里,
对偶算法描述
输出
a,b ,给定感知机模型f(x)=sign(∑j=1Najyjxj⋅x+b)
其中a=(a1,a2,...,aN)T
1.a←0,b←0
2. 在训练集中选取数据(xi,yi)
3. 如果yi(∑j=1Najyjxj⋅x+b)≤0
aib←ai+η←b+ηyi
4. 转至2,直到训练集中没有误分类点。
对偶形式中训练实例仅以内积的形式出现,为了方便,可以预先将训练集中实例间的内积计算出来并以矩阵的形式存储,这个矩阵就是Gram矩阵。
参考文献
《统计学习方法》第2章
- 2 - 感知机(perceptron)
- 感知机(Perceptron)
- Perceptron感知机
- perceptron 感知机
- OR perceptron(感知机 )
- 感知机Perceptron
- 感知机perceptron
- Perceptron(感知机)
- 感知机—Perceptron
- 感知机 — Perceptron
- 机器学习-感知机perceptron
- 20151227感知机(perceptron).md
- 感知机PLA(perceptron)
- 深度学习:感知机perceptron
- 机器学习-感知机perceptron
- 感知机:Perceptron Learning Algorithm
- 机器学习-感知机perceptron
- 线性分类模型--感知机(perceptron)
- 公钥和私钥的理解
- 云图制作
- 高级运营和初级运营大对比,你属于哪个档?
- golang 学习笔记(1)数组,切片,字典
- 深入理解jvm的GC日志
- 感知机Perceptron
- MyBatis 插入空值时,需要指定JdbcType
- Window+Anaconda+Cuda之Pycuda安装
- Wolf从零学编程-用Python打造简单加密程序(二)
- POJ1274-The Perfect Stall
- 01.JS基础基本特点
- Unity3D脚本生命周期
- DBA的能力模型
- Windows python pydub 安装