支持向量机
来源:互联网 发布:tensorflow spyder 编辑:程序博客网 时间:2024/06/02 05:39
支持向量机
间隔与支持向量
给定训练样本集
在样本空间中,划分超平面可通过如下线性方程来描述:
其中
此超平面距离公式在感知机出现过,点到超平面的距离公式为此
假设超平面
距离超平面最近的这几个样本点使上式的等号成立,它们被称为支持向量,两个异类支持向量到超平面的距离之和为:
它被称为间隔。
欲找到具有“最大间隔 ”的划分超平面,也就是找到能满足上式约束的参数
显然,为了最大化间隔,仅需最大化
对偶问题
使用拉格朗日乘子法可得到其“ 对偶问题 ”. 具体来说,对上式每条约束添加拉格朗日乘子
其中
将其代入,即可将
解出
从对偶问题解出的
拉格朗日对偶性
原始问题
假设
f(x) ,ci(x) ,hj(x) 是定义在Rn 上的连续可微函数. 考虑约束最优化问题minx∈Rnf(x) s.t.ci(x)≤0,i=1,2,…,k hj(x)=0,j=1,2,…,l 称此约束最优化问题为原始最优化问题或原始问题
首先,引进广义拉格朗日函数
L(x,α,β)=f(x)+∑i=1kαici(x)+∑j=1lβjhj(x) 这里,
x=(x(1),x(2),…,x(n))T∈Rn ,αi,βi 是拉格朗日乘子,αi≥0 . 考虑x 的函数:θp(x)=maxα,β:αi≥0L(x,α,β) 这里下标
P 表示原始问题。如果x 违反原始问题的约束条件,即存在某个i 是的ci(x)>0 或 存在某个j 使得hj(x)≠0 ,那么θP(x)=+∞ ,相反的如果x 满足条件,则θP(x)=f(x) . 因此θP(x)={f(x),+∞,x满足原始问题约束其他 所以如果考虑极小化问题,
minxθP(x)=minxmaxα,β;αi≥0L(x,α,β) 它是与原始问题等价的. 为了方便,定义原始问题的最优值
p∗=minxθP(x) 称为原始问题的值。
对偶问题
定义:
θD(α,β)=minxL(x,α,β) 再考虑极大化
θD=minxL(x,α,β) ,即maxα,β;αi≥0θD(α,β)=maxα,β;αi≥0minxL(x,α,β) s.t.αi≥0,i=1,2,…,k 称为原始问题的对偶问题, 定义对偶问题的最优值
d∗=maxα,β;αi≥0θD(α,β) 称为对偶问题的值.
原始问题与对偶问题的关系
定理 C.1 若原始问题和对偶问题都有最优值,则
d∗=maxα,β;αi≥0minxL(x,α,β)≤minxmaxα,β;αi≥0L(x,α,β)=p∗ 定理 C.2 假设函数
f(x) 和ci(x) 是凸函数,hj(x) 是仿射函数;并且假设不等式约束ci(x) 是严格可行的,即存在x ,对所有i 有ci(x)<0 ,则存在x∗,α∗,β∗ ,使x∗ 是原始问题的解,α∗,β∗ 是对偶问题的解,并且p∗=d∗=L(x∗,α∗,β∗) 定理 C.3 假设函数
f(x) 和ci(x) 是凸函数,hj(x) 是仿射函数,并且不等式约束ci(x) 是严格可行的,则x∗ 和α∗,β∗ 分别是原始问题和对偶问题的解的充分必要条件是x∗,α∗,β∗ 满足下面的 KKT条件:∇xL(x∗,α∗,β∗)=0 ∇αL(x∗,α∗,β∗)=0 ∇βL(x∗,α∗,β∗)=0 α∗ici(x∗)=0,i=1,2,…,k(对偶互补条件) cx(x∗)≤0,i=1,2,…,k α∗i≥0,i=1,2,…,k hj(x∗)=0j=1,2,…,l
- 人工智能-支持向量机
- 支持向量机
- 支持向量机导论
- 支持向量机分类
- 支持向量机SVM
- 支持向量机: Kernel
- 支持向量机简介
- [转]支持向量机
- 支持向量机简介
- 支持向量机
- 支持向量机基本原理
- 支持向量机
- SVM支持向量机
- 支持向量机
- 支持向量机简介
- 支持向量机
- 支持向量机:Duality
- 支持向量机笔记
- 机器学习中的相似性度量
- MapReduce优化
- 稀疏编码(Sparse Coding)的前世今生(一)
- 【python 爬虫】python中url链接编码处理方法
- [js高手之路]使用原型对象(prototype)需要注意的地方
- 支持向量机
- mac生成core文件和生成位置
- 最小树形图
- LA 5009
- cmd 高级用法
- app UI自动化框架改进----使用pa设计模式抽离页面元素
- java编程:无序整数序列,求连续子串最大和问题
- 稀疏编码系列1:Spatial Pyramid Matching 小结
- html版键盘