读懂《机器学习实战》代码—K-近邻算法
来源:互联网 发布:web excel源码 编辑:程序博客网 时间:2024/06/09 10:11
一,K近邻算法概念
K近邻算法即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例(也就是上面所说的K个邻居), 这K个实例的多数属于某个类,就把该输入实例分类到这个类中。KNN 算法是一种 lazy-learning 算法,分类器不需要使用训练集进行训练,训练时间复杂度为0。KNN 分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为 n,那么 KNN 的分类时间复杂度为O(n)。
K 近邻算法使用的模型实际上对应于对特征空间的划分。K 值的选择,距离度量和分类决策规则是该算法的三个基本要素:
1,K 值的选择会对算法的结果产生重大影响。K值较小意味着只有与输入实例较近的训练实例才会对预测结果起作用,但容易发生过拟合;如果 K 值较大,优点是可以减少学习的估计误差,但缺点是学习的近似误差增大,这时与输入实例较远的训练实例也会对预测起作用,是预测发生错误。在实际应用中,K 值一般选择一个较小的数值,通常采用交叉验证的方法来选择最优的 K 值。随着训练实例数目趋向于无穷和 K=1 时,误差率不会超过贝叶斯误差率的2倍,如果K也趋向于无穷,则误差率趋向于贝叶斯误差率。,
2,该算法中的分类决策规则往往是多数表决,即由输入实例的 K 个最临近的训练实例中的多数类决定输入实例的类别
3,距离度量一般采用 Lp 距离,当p=2时,即为欧氏距离,在度量之前,应该将每个属性的值规范化,这样有助于防止具有较大初始值域的属性比具有较小初始值域的属性的权重过大。
二,K-近邻算法例子假定有数据集
group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) lables = ['A','A','B','B']
算法步骤:
(1)计算已知类别数据集中的点与当前点之间的距离
(2)按照距离递增次序排序
(3)选取与当前点距离最小的K个点
(4)确定前K个点所在类别出现的频率
(5)返回前K个点出现频率最高的类别作为当前点的预测分类
程序理解:
from numpy import *from matplotlib import *import operatordef creatDataset(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) lables = ['A','A','B','B'] return group,lables #inX为用于分类的输入向量#dataSet为输入的训练样本集#lables为标签向量#参数k表示用于选择最近邻居的数目def classify0(inX,dataSet,lables,k): #array的shape函数返回指定维度的大小,如dataset为n*m的矩阵, #则dataset.shape[0]返回n,dataset.shape[1]返回m,dataset.shape返回n,m dataSetSize = dataSet.shape[0] #tile函数简单的理解,它的功能是重复某个数组。比如tile(A,n),功能是将数组A重复n次,构成一个新的数组 #所以此处tile(inX,(dataSetSize,1))的作用是将inX重复复制dataSetSize次,以便与训练样本集的样本个数一致 #减去dataSet就是求出其差值,所以diffMat为一个差值矩阵 diffMat = tile(inX,(dataSetSize,1))- dataSet #以下三行代码执行的是欧式距离的计算 sqDiffMat = diffMat**2 #平时用的sum应该是默认的axis=0,就是普通的相加,而当加入axis=1以后就是将一个矩阵的每一行向量相加,axis用于控制是行相加还是列相加 sqDistances = sqDiffMat.sum(axis=1) distance = sqDistances**0.5 #相关性的排序 sortedDistance = distance.argsort() #<span style="text-indent: 28px;">确定前K个点所在类别出现的频率</span> classCount= {} for i in range(k): voteLable = lables[sortedDistance[i]] #dict.get(key, default=None)key 为字典中要查找的键,default如果指定键的值不存在时,返回该默认值值。此句代码用于统计标签出现的次数 classCount[voteLable] = classCount.get(voteLable,0)+1 #sorted函数参数解释,sorted(iterable, cmp=None, key=None, reverse=False) #iterable:是可迭代类型; #cmp:用于比较的函数,比较什么由key决定; #key:用列表元素的某个属性或函数进行作为关键字,有默认值,迭代集合中的一项; #reverse:排序规则. reverse = True 降序 或者 reverse = False 升序,有默认值。 #返回值:是一个经过排序的可迭代类型,与iterable一样。 ###### #operator模块提供的itemgetter函数用于获取对象的哪些维的数据,参数为一些序号(即需要获取的数据在对象中的序号) ###### sortedClassCount = sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True) #返回最符合的标签 return sortedClassCount[0][0] group,lables=creatDataset()#画出点的分布pyplot.plot(group[:,0],group[:,1],'ro',label="point")pyplot.ylim(-0.2,1.2)pyplot.xlim(-0.2,1.2)#测试[0,0]所属类别print classify0([0,0],group,lables,3)
测试可得[0,0]属于B类
更多numpy的用法:
numpy教程:http://blog.csdn.net/u013457382/article/details/50828646 2 0
- 读懂《机器学习实战》代码—K-近邻算法
- 读懂《机器学习实战》代码—K-近邻算法改进约会网站配对效果
- 《机器学习实战》—K-近邻算法
- 机器学习实战代码学习(K-近邻算法)
- 机器学习实战学习,代码详解(K-近邻算法)
- 《机器学习实战》代码片段学习1 k-近邻算法
- 《机器学习实战》K-近邻算法代码解析(1)
- 机器学习实战ch02 KNN k-近邻算法代码注释
- 机器学习实战之K-近邻算法
- 机器学习实战笔记 K近邻算法
- 《机器学习实战》之K-近邻算法
- 机器学习实战-k近邻算法
- 机器学习实战 k-近邻算法
- 【机器学习实战】-k近邻算法
- 【机器学习实战一:K-近邻算法】
- 机器学习实战(k-近邻算法)
- 机器学习实战笔记:K近邻算法
- 机器学习实战笔记 k-近邻算法
- iOS数据打印时怎么把编码后的文字显示成中文
- IOS中Json解析的四种方法
- 标识寄存器在Debug中的表示
- ArcGISEngine加载ArcGISServer服务
- Git远程操作详解
- 读懂《机器学习实战》代码—K-近邻算法
- H264中的SPS、PPS提取与作用
- Ubuntu系统下Nexus安装
- Node.js简介和安装
- hdu 1028 Ignatius and the Princess III(动态规划)
- Java多线程编程:Callable、Future和FutureTask浅析(多线程编程之四)
- 数据库软件开发工程
- CSS--display属性
- 知乎 哪些素质很重要,却是读书学不来的?