机器学习总结(三)——SVM
来源:互联网 发布:mac 上给iphone传照片 编辑:程序博客网 时间:2024/06/05 23:06
1. SVM的原理是什么
svm是一种二分类模型,是一种在特征空间中寻找间隔最大化的分离超平面的线性分类器。
- 线性可分样本:可以通过硬间隔最大化学习线性分类器实现。
- 近似线性可分:通过引入松弛变量,通过软间隔最大化,学习线性分类器;
- 非线性样本:通过核技巧与软间隔最大化学习非线性支持向量机;
2. SVM为什么采用间隔最大化
利用间隔最大化求得的最优分离超平面是唯一的。分离超平面产生的分类结果是最鲁棒的,泛化能力最强。(采用其他策略可能得到的分类面有无数个,无法判断哪一个最优)
3. 函数间隔、几何间隔、点到超平面的距离
函数间隔:样本点到超平面的函数间隔为y*(w*x + b),可以用来表示分类预测的正确性及确信度。
几何间隔:为了防止函数间隔随超参数的等比例变化,对法向量w进行约束,即函数间隔除以w的L2范数,为y*(w*x + b)/||w||2。
点到超平面的距离为:(w*x + b) / ||w||2
4. SVM为什么要引入核函数?有哪些核函数?
当样本在原始空间线性不可分时,可将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分。核函数可以实现这种映射。
**常见的核函数:**RBF径向基函数核(高斯核函数是RBF的特例),多项式核函数,线性核函数,sigmod核函数。
5. 为什么要将求解SVM的原始问题转换为其对偶问题
对偶问题往往更容易求解。同时更方便的讲约束条件与目标函数融合起来方便优化。
6. SVM的优缺点
优点:
- 适合于线性分类或者非线性分类;
- 低的泛化误差;
缺点:
- 对参数和核函数的选择比较敏感;
- 对大规模训练样本难以实施;
阅读全文
0 0
- 机器学习总结(三)——SVM
- 支持向量机(SVM)——斯坦福CS229机器学习个人总结(三)
- 机器学习——SVM
- 机器学习算法总结--SVM
- 机器学习算法总结--SVM
- 机器学习:SVM学习笔记(三)
- 机器学习笔记——SVM
- svm代码c++——机器学习
- 机器学习复习——SVM
- 【机器学习算法2】——SVM
- 机器学习模型——SVM
- Fastcv——机器学习SVM初识
- 机器学习之——SVM
- 机器学习(三)——朴素贝叶斯方法、SVM(1)
- 系统学习机器学习之SVM(四)--SVM算法总结
- 系统学习机器学习之SVM(三)--Liblinear,LibSVM使用整理,总结
- 机器学习(十四)SVM总结
- 【机器学习】支持向量机SVM总结
- 风控是如何运用手机运营商数据
- 【Scikit-Learn 中文文档】机器学习: scikit-learn 中的设置以及预估对象
- Python实现Pat 1013. Battle Over Cities (25)
- 刷系统
- hdoj-2222Keywords Search(AC自动机)
- 机器学习总结(三)——SVM
- 【Scikit-Learn 中文文档】监督学习:从高维观察预测输出变量
- 时间复杂度和空间复杂度
- VC目标代码的阅读理解
- VMware中Nat方式设置静态IP
- MySQL安装配置
- Java 多线程设计模式之Two-phase Termination
- SqlServer自定义函数处理数据
- 快速排序