机器学习实战 KNN代码
来源:互联网 发布:win8安装版iso镜像mac 编辑:程序博客网 时间:2024/05/17 04:20
机器学习实战(一) KNN
本人,研一机器学习和数据挖掘的课比较少,加上对机器学习比较感兴趣,本科也接触了一些知识和项目,发现很多算法都是直接调用库,实现很少实操,特此把每个算法的步骤都复现一遍,算是加强印象吧。。。
一 . K-近邻算法(KNN)概述
最简单最初级的分类器是将全部的训练数据所对应的类别都记录下来,当测试对象的属性和某个训练对象的属性完全匹配时,便可以对其进行分类。但是怎么可能所有测试对象都会找到与之完全匹配的训练对象呢,其次就是存在一个测试对象同时与多个训练对象匹配,导致一个训练对象被分到了多个类的问题,基于这些问题呢,就产生了KNN。
接下来对KNN算法的思想总结一下:就是在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类,其算法的描述为:
1)计算测试数据与各个训练数据之间的距离;
2)按照距离的递增关系进行排序;
3)选取距离最小的K个点;
4)确定前K个点所在类别的出现频率;
5)返回前K个点中出现频率最高的类别作为测试数据的预测分类。
二 .python实现
首先呢,需要说明的是我用的是python3.6,推荐大家直接用Sublime Text 3或者spyder(anaconda直接下载自带的,以后做机器学习很多包都直接包含了,很方便)
建立一个KNN.py文件对算法的可行性进行验证,基本和机器学习实战的书没什么大区别,KNN原理也挺简单的,就是近朱者赤,近墨者黑原则。想了解的可以看以下博客,个人觉得写得不错:
http://blog.csdn.net/jmydream/article/details/8644004
代码实现如下:
"""Created on Tue Oct 10 23:39:13 2017@author: zzx"""from numpy import *import operatorfrom os import listdirdef classify0(inX, dataSet, labels, k): dataSetSize = dataSet.shape[0] diffMat = tile(inX, (dataSetSize,1)) - dataSet sqDiffMat = diffMat**2 sqDistances = sqDiffMat.sum(axis=1) distances = sqDistances**0.5 sortedDistIndicies = distances.argsort() #sortedDistIndicies = numpy.argsort(distance) classCount={} for i in range(k): voteIlabel = labels[sortedDistIndicies[i]] classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1 #sortedClassCount = sorted(classCount.iteritems(), key=operator.itemgetter(1), reverse=True) sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True) return sortedClassCount[0][0]def createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels = ['A','A','B','B'] return group, labelsdef file2matrix(filename): fr = open(filename) numberOfLines = len(fr.readlines()) #get the number of lines in the file returnMat = zeros((numberOfLines,3)) #prepare matrix to return classLabelVector = [] #prepare labels return #fr = open(filename) fr.seek(0) index = 0 for line in fr.readlines(): line = line.strip() listFromLine = line.split('\t') returnMat[index,:] = listFromLine[0:3] #classLabelVector.append(int(listFromLine[-1])) classLabelVector.append((listFromLine[-1])) index += 1 return returnMat,classLabelVector def autoNorm(dataSet): minVals = dataSet.min(0) maxVals = dataSet.max(0) ranges = maxVals - minVals normDataSet = zeros(shape(dataSet)) m = dataSet.shape[0] normDataSet = dataSet - tile(minVals, (m,1)) normDataSet = normDataSet/tile(ranges, (m,1)) #element wise divide return normDataSet, ranges, minVals def datingClassTest(): hoRatio = 0.50 #hold out 10% datingDataMat,datingLabels = file2matrix('datingTestSet2.txt') #load data setfrom file normMat, ranges, minVals = autoNorm(datingDataMat) m = normMat.shape[0] numTestVecs = int(m*hoRatio) errorCount = 0.0 for i in range(numTestVecs): classifierResult = classify0(normMat[i,:],normMat[numTestVecs:m,:],datingLabels[numTestVecs:m],3) print ("the classifier came back with: %d, the real answer is: %d", (classifierResult, datingLabels[i])) if (classifierResult != datingLabels[i]): errorCount += 1.0 print ("the total error rate is: %f",(errorCount/float(numTestVecs))) print (errorCount) def img2vector(filename): returnVect = zeros((1,1024)) fr = open(filename) for i in range(32): lineStr = fr.readline() for j in range(32): returnVect[0,32*i+j] = int(lineStr[j]) return returnVectdef handwritingClassTest(): hwLabels = [] trainingFileList = listdir('trainingDigits') #load the training set m = len(trainingFileList) trainingMat = zeros((m,1024)) for i in range(m): fileNameStr = trainingFileList[i] fileStr = fileNameStr.split('.')[0] #take off .txt classNumStr = int(fileStr.split('_')[0]) hwLabels.append(classNumStr) trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr) testFileList = listdir('testDigits') #iterate through the test set errorCount = 0.0 mTest = len(testFileList) for i in range(mTest): fileNameStr = testFileList[i] fileStr = fileNameStr.split('.')[0] #take off .txt classNumStr = int(fileStr.split('_')[0]) vectorUnderTest = img2vector('testDigits/%s' % fileNameStr) classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3) print ("the classifier came back with: %d, the real answer is: %d",(classifierResult, classNumStr)) if (classifierResult != classNumStr): errorCount += 1.0 print ("\nthe total number of errors is: %d",errorCount) print ("\nthe total error rate is: %f",errorCount/float(mTest))
有什么不懂可以私聊。。。今天就到这吧。。。
- 机器学习实战 KNN代码
- 《机器学习实战》之KNN代码基础
- 机器学习实战——KNN代码
- 机器学习实战--KNN代码解析
- 机器学习实战:KNN 代码注释(python)
- 《机器学习实战》--KNN
- 【机器学习实战】KNN
- 机器学习实战--KNN
- 机器学习实战-kNN
- 机器学习实战-KNN
- 机器学习实战---kNN
- 机器学习实战-KNN
- 机器学习实战---KNN
- 机器学习实战-KNN
- 机器学习实战KNN
- [机器学习实战]kNN
- 机器学习实战代码详细注释之kNN算法
- 机器学习实战ch02 KNN k-近邻算法代码注释
- 简单的QQ临时在线聊天功能
- 独家 | 一文读懂网络爬虫
- Java抽象类 详解
- MyEclipse中Jquery.js报错
- Mybatis源码分析
- 机器学习实战 KNN代码
- centos下 安装mysql重置密码
- MaxCompute常用语句汇总(更新ing)
- svn-command
- jenkins版本升级
- numpy中list array matrix比较
- 使用ssh从远程仓库clone项目到本地报错
- Pycharm中SQL语句提示SQL Dialect is Not Configured
- js Date 操作之神奇的 date