[Machine learning]SVM实验续
来源:互联网 发布:深圳软件企业协会 编辑:程序博客网 时间:2024/06/06 15:45
假定应用多项式核(核方法) 样本使用此前的样本。
若有新元素(0,0)需要分类。
则Y(0,0) = ,则(0,0)为负例
利用核方法后,支持向量代入后不再为+1,或者-1.即Y(1,1)!=-1,Y(2,3/2)!=1。这个我还没搞明白为什么,希望有朋友能告诉我。
将x1,x2通过核函数转化为 x1*x1,x1*x2,x2*x1,x2*x2,原语料转化为
4,3,3,9/4 +
9,9,9,9 +
1,1,1,1 -
按照类似的解法解得:
Y=(< (4,3,3,9/4),(x1,x2,x3,x4) > - < (1,1,1,1),(x1,x2,x3,x4) > + b
解得b=-17.53125
Y=[(< (4,3,3,9/4),(x1,x2,x3,x4) > - < (1,1,1,1),(x1,x2,x3,x4) >+ -17.53125
除以9.28125得到:
Y=(< (0.4310 0.3232 0.3232 0.2424),(x1,x2,x3,x4) > - < (0.1077 0.1077 0.1077 0.1077),(x1,x2,x3,x4) > + -1,8889
这样:
Y(2,3/2) = +1
Y(1,1) = -1
因此没有比较纠结支持向量是否为+1或者-1,只需要正例为+r,负例为-r即可,最小的r,最大的-r均有支持向量获得。
- [Machine learning]SVM实验续
- 【Machine Learning实验5】SVM实验
- 【Machine Learning实验5】SVM实验
- Machine Learning SVM
- Machine Learning (2) SVM
- Machine Learning---SVM
- 【Machine Learning】笔记:SVM
- Machine Learning---5--SVM
- 【Machine Learning】SVM学习笔记
- [Machine Learning] SVM--support vector machine
- 【Machine Learning实验】牛顿迭代法
- Stanford Machine Learning -- 第六讲 SVM
- Machine learning-------------SVM(support vector machines)
- machine learning(3)---SVM算法原理
- Machine learning-------------SVM(support vector machines)
- [Machine Learning] SVM系列转载文章
- Kernels in Machine Learning and SVM
- svm之使用SVM(斯坦福machine learning week 7)
- Android Task和Activity分析
- 精确计时器
- <备忘1000> ffmpeg命令行使用例子
- ext store.load异步问题
- Exchange接受连接器Default与Client区别
- [Machine learning]SVM实验续
- skb_buff 布局字段
- 代码生成工具
- What is CIF/4CIF/QCIF/D1?
- Eclipse汉化后如何还原为EN英文(实用技巧)
- 游戏中搞定RHCE,不信你来试试
- SQL查询xml内容
- Linux添加环境变量与GCC编译器添加INCLUDE与LIB环境变量
- 浙大毕业演讲 --- 马一浮