K--近邻算法解析
来源:互联网 发布:scratch趣味编程实例 编辑:程序博客网 时间:2024/05/14 04:17
代码测试环境:Python,需要安装Numpy库
首先讲解关于K--近邻算法的工作原理:
K--近邻算法的工作原理是根据所给已知标签的数据集计算出与未知标签数据的最近的K个数据,这K个数据的标签中所占比重最大的那个数据的标签即为所要预测数据的标签。下面进行详细解释一下:假设现在有一个已知标签数据的样本,它包含5个属性值,则这个样本被称作训练样本集。当输入一个没有标签的数据样本时。训练样本中的所有数据就会计算与这个没有标签的数据样本之间的距离(具体的计算公式稍后会详细讲解),最后得出与这个测试样本之间最近的K个训练样本数据。K一般不超过20.最后选择出这K个相似数据中出现最多的分类作为预测数据的分类。
详细讲解K--近邻算法的实现过程:
首先创建一个名为KNN.py的文件在KNN.py中添加如下代码:
from numpy import *import operatordef createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels = ['A','A','B','B'] return group, labels
在上面的代码中首先导入了一个计算包NumPy,还有一个运算符模块operator。接下来createDataSet()函数用于创建一个数据集和标签,首先是一个二维数组接下来是其对应的标签。从文件中输入的数据格式也像上面一样,这里为了讲解自己创造的数据集。接下来开始真正的实施KNN算法,在KNN.py文件中加入如下代码:
def classify0(inX, dataSet, labels, k): dataSetSize = dataSet.shape[0] diffMat = tile(inX, (dataSetSize,1)) - dataSet sqDiffMat = diffMat**2 sqDistances = sqDiffMat.sum(axis=1) distances = sqDistances**0.5 sortedDistIndicies = distances.argsort() classCount={} for i in range(k): voteIlabel = labels[sortedDistIndicies[i]] classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1 sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True) return sortedClassCount[0][0]这个函数有四个输入参数,inX为测试数据集,dataSet是去除标签的训练数据集,labels是标签列表,k是要预测的最相似数据集的个数。
首先计算出训练数据集中所包含数据的条数。接下来的第3~~6行是进行距离的计算。这里用到的距离计算公式是欧氏距离计算公式,也就是我们从初中就用到的两点之间的距离计算公式。对!没错!这里不再具体解释。计算出所有训练数据到预测点的距离之后就要对其进行排序,然后取出距离测试点最近的K个点。最后根据最近的点的出现次数进行排序,这里按照从大到小的顺序进行排序,所以第一个就是我们想要的最佳答案。
接下来我们根据具体的数据进行算法的实现,我们所使用的数据格式如下所示:datingTestSet.txt下载 (提取码:6fa1)
409208.3269760.953952largeDoses144887.1534691.673904smallDoses260521.4418710.805124didntLike7513613.1473940.428964didntLike383441.6697880.134296didntLike7299310.1417401.032955didntLike359486.8307921.213192largeDoses4266613.2763690.543880largeDoses674978.6315770.749278didntLike3548312.2731691.508053largeDoses502423.7234980.831917didntLike632758.3858791.669485didntLike55694.8754350.728658smallDoses510524.6800980.625224didntLike7737215.2995700.331351didntLike436731.8894610.191283didntLike613647.5167541.269164didntLike6967314.2391950.261333didntLike156690.0000001.250185smallDoses2848810.5285551.304844largeDoses64873.5402650.822483smallDoses377082.9915510.833920didntLike
这里的前三列是属性列,最后一列是标签列。这里我们首先将文本解析为算法能够读取的格式。在KNN.py文件中添加下面这个函数:
def file2matrix(filename): fr = open(filename) numberOfLines = len(fr.readlines()) returnMat = zeros((numberOfLines,3)) classLabelVector = [] fr = open(filename) index = 0 for line in fr.readlines(): line = line.strip() listFromLine = line.split('\t') returnMat[index,:] = listFromLine[0:3] classLabelVector.append(int(listFromLine[-1])) index += 1 return returnMat,classLabelVector
这个函数比较简单这里不再详细介绍,就是将数据解析为属性矩阵和标签列表,和上面的数据格式一样。接下来我们需要对数据进行准备工作:
def autoNorm(dataSet): minVals = dataSet.min(0) maxVals = dataSet.max(0) ranges = maxVals - minVals normDataSet = zeros(shape(dataSet)) m = dataSet.shape[0] normDataSet = dataSet - tile(minVals, (m,1)) normDataSet = normDataSet/tile(ranges, (m,1)) return normDataSet, ranges, minVals这个函数的主要功能是对数据进行归一化。这里进行归一化的原因是避免在计算两点之间的距离是由于其中一个属性之间相差较大影响其他属性在计算中发挥的作用。这里的归一化就是使其所有属性值都处于0到1之间,具体的做法就是找到每个属性中的最小值和最大值,然后用现有属性之减去最小值除以最大值和最小值的差。这就是上面的代码完成的工作。好了!到这里大部分工作基本已经完成,最后要做的就是进行测试:
def datingClassTest(): hoRatio = 0.10 datingDataMat,datingLabels = file2matrix('datingTestSet.txt') normMat,ranges,minVals = autoNorm(datingDataMat) m = normMat.shape[0] numTestVecs = int(m*hoRatio) errorCount = 0.0 for i in range(numTestVecs): classifierResult = classifyO(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3) print "the classifier came back with : %d ,the real answer is ; %d " % (classifierResult , datingLabels[i]) if (classifierResult != datingLabels[i]): errorCount += 1.0 print "the total error rate is : %f the error number is %d" % (errorCount /float(numTestVecs),errorCount)这个函数是对上面的代码进行测试,我们注意到里边有一个变量hoRatio这个变量决定有多少数据是训练数据,多少数据是测试数据。所以我们可以改变它的值来观察预测结果的变化。同时我们也可以改变K的之来进行结果的观察。我们可以在IDLE终端输入KNN.datingClassTest()观察输出结果。到这里我们已经完成算法的所有代码的实现。KNN算法总体来说并不难,很容易理解。下一节我将为大家展示一个实例的应用。
小弟在这献丑了,希望能给大家一点帮助,欢迎大家前来围观更欢迎大家七嘴八舌!
0 0
- K--近邻算法解析
- 算法解析之K-近邻算法数学分析
- opencv 学习之 K近邻算法解析
- K近邻算法
- K近邻算法
- K近邻算法
- K近邻算法
- K近邻算法
- K近邻算法
- k近邻算法
- OpenCv K近邻算法
- k-近邻算法(kNN)
- k-近邻算法
- k-近邻算法(kNN)
- K近邻算法
- K近邻分类算法
- K近邻分类算法
- K近邻算法
- 作为一名程序猿,我是如何看待微信应用号的
- ERROR OGG-00199 Table t3.T3_TAB does not exist in target database.
- Android 基于google Zxing实现二维码、条形码扫描,仿微信二维码扫描效果
- SyntaxError: missing ; before statement,SCRIPT1004: 缺少 ';'
- 文件读写操作-Java
- K--近邻算法解析
- linux下安装oracle,本地PL/SQL连接Linux下的oracle导入表并新建用户和密码
- android 对象序列化
- advanced backend configuration(后端服务器高级配置)
- c++基础--隐式类类型转换
- [C++]IDictionary的用法
- xml-5处理
- PAT (Advanced Level) Practis 1039 Course List for Student (25)
- iOS之对象归档