机器学习实战—第2章 k-近邻算法
来源:互联网 发布:powerdesigner mac 编辑:程序博客网 时间:2024/06/08 08:10
2.1 K-近邻算法概述
k-近邻算法
- 优点:
- 精度高、对异常值不敏感、无数据输入假定
- 缺点
- 计算复杂度高、空间复杂度高
- 使用数据范围:
- 数值型和标称型
k-近邻算法的工作原理:
存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即知道样本集中每一数据与所属分类的关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,只选择样本数据集中前k个最相似的数据,通常k不大于20,选择k个最相似数据中出现次数最多的分类,作为数据的分类。
k-近邻算法的一般流程:
- 收集数据:可以使用任何方法
- 准备数据:距离计算所需要的数值,最好是结构化的数据格式
- 分析数据:可以使用任何方法
- 训练算法:此步骤不适用于k-近邻算法
- 测试算法:计算错误率
- 使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理
# -*- coding: utf-8 -*-"""Created on Wed May 24 21:42:55 2017@name: kNN.py@author: L. D. Xiao"""from numpy import *import operator#==============================================================================# 创建数据集和标签#==============================================================================def createDataSet(): group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]]) labels = ['A','A','B','B'] return group, labels#================================ kNN算法 ======================================# kNN对未知类别属性的数据集中的每个点依次执行以下操作:# 计算已知类别数据集中的点与当前点之间的距离;# 按照距离递增次序排序;# 选取与当前点距离最小的k个点;# 确定前k个点所在类别的出现频率;# 返回前k个点出现频率最高的类别作为当前点的预测分类#==============================================================================def classify0(inX, dataSet, labels,k): dataSetSize = dataSet.shape[0] #numpy.tile(A,(m,n)):在行方向上重复A m次,列方向上重复A n次 diffMat = tile(inX, (dataSetSize,1)) - dataSet sqDiffMat = diffMat**2 sqDistances = sqDiffMat.sum(axis=1) distances = sqDistances**0.5 sortedDistIndices = distances.argsort() classCount={} for i in range(k): voteIlabel = labels[sortedDistIndices[i]] classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1 sortedClassCount = sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True) return sortedClassCount[0][0]
2.2 示例:使用k-近邻算法改进约会网站的配对效果
- 收集数据:提供文本文件
- 准备数据:使用Python解析文本文件
- 分析数据:使用Matplotlib画二维散点图
- 训练算法:此步骤不适用于k-近邻算法
- 测试算法:使用提供的部分数据作为测试样本
- 使用算法:产生简单的命令行程序,然后可以输入一些特征数据以判断对方是否为喜欢的类型
利用Python处理文本文件数据:
#==============================================================================# 将文本文件记录转换为NumPy矩阵#==============================================================================def file2matrix(filename): fr = open(filename) arrayOLines = fr.readlines() numberOfLines = len(arrayOLines) returnMat = zeros((numberOfLines,3)) classLabelVector = [] index = 0 for line in arrayOLines: line = line.strip() listFromLine = line.split('\t') returnMat[index,:] = listFromLine[0:3] classLabelVector.append(int(listFromLine[-1])) index += 1 return returnMat,classLabelVector
使用Matplotlib可视化分析数据:
#==============================================================================# 分析数据:使用Matplotlib创建散点图#==============================================================================import matplotlibimport matplotlib.pyplot as pltfig = plt.figure()ax = fig.add_subplot(111)ax.scatter(returnMat[:,4], returnMat[:,5], 15*array(returnMat[:,4]), 15*array(returnMat[:,4]))
针对各特征归一化,以有效的计算各样本间的距离:
#==============================================================================# 将数值特征归一化处理 newValue = (oldValue - min) / (max - min)#==============================================================================def autoNorm(dataSet): minVals = dataSet.min(0) maxVals = dataSet.max(0) ranges = maxVals - minVals normDataSet = zeros(shape(dataSet)) m = dataSet.shape[0] normDataSet = dataSet - tile(minVals,(m,1)) normDataSet = normDataSet/tile(ranges,(m,1)) return normDataSet, ranges, minVals
构建分类器针对约会网站的测试代码:
#==============================================================================# 程序清单2-4:分类器针对约会网站的测试代码#==============================================================================def datingClassTest(): hoRatio = 0.10 datingDataMat,datingLabels = file2matrix('datingTestSet.txt') normMat, ranges, minVals = autoNorm(datingDataMat) m = normMat.shape[0] numTestVecs = int(m*hoRatio) errorCount = 0.0 for i in range(numTestVecs): classifierResult = classify0(normMat[i,:], normMat[numTestVecs:m, :], \ datingLabels[numTestVecs:m], 3) print "the classifier came back with: %d, the real answer is: %d" \ % (classifierResult, datingLabels[i]) if (classifierResult != datingLabels[i]): errorCount += 1.0 print "the total error rate is: %f" % (errorCount/float(numTestVecs))
使用算法:构建完整可用系统:
#==============================================================================# 程序清单2-5:约会网站预测函数#==============================================================================def classifyPerson(): resultList = ['not at all', 'in small doses', 'in large doses'] percentTats = float(raw_input(\ "percentage of time spent playing video games ?")) ffMiles = float(raw_input("frequent flier miles earned per year ?")) iceCream = float(raw_input("liters of ice cream consumed per year ?")) datingDataMat,datingLabels = file2matrix('datingTestSet2.txt') normMat, ranges, minVals = autoNorm(datingDataMat) inArr = array([ffMiles, percentTats, iceCream]) classifierResult = classify0((inArr-minVals)/ranges, normMat, datingLabels, 3) print "You will probably like this person: ", resultList[classifierResult - 1]
2.3 示例:手写识别系统
- 收集数据:提供文本文件
- 准备数据:编写函数classify0(),将图像格式转换为分类器使用的list格式
- 分析数据:在Python命令提示符中检查数据,确保它符合要求
- 训练算法:此步骤不适用于k-近邻算法
- 测试算法:编写函数使用提供的部分数据集作为测试样本
- 使用算法:本示例未完成
#==============================================================================# 将32*32的二进制图像转换为1*1024的向量#==============================================================================def img2vector(filename): returnVect = zeros((1,1024)) fr = open(filename) for i in range(32): lineStr = fr.readline() for j in range(32): returnVect[0,32*i+j] = int(lineStr[j]) return returnVect#==============================================================================# 程序清单2-6:手写数字识别系统的测试代码#==============================================================================def handwritingClassTest(): hwLabels = [] trainingFileList = listdir('trainingDigits') m = len(trainingFileList) trainingMat = zeros((m,1024)) for i in range(m): fileNameStr = trainingFileList[i] fileStr = fileNameStr.split('.')[0] classNumStr = int(fileStr.split('_')[0]) hwLabels.append(classNumStr) trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr) testFileList = listdir('testDigits') errorCount = 0.0 mTest = len(testFileList) for i in range(mTest): fileNameStr = testFileList[i] fileStr = fileNameStr.split('.')[0] classNumStr = int(fileStr.split('_')[0]) vectorUnderTest = img2vector('testDigits/%s' % fileNameStr) classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3) print "the classifier came back with: %d, the real answer is : %d"\ % (classifierResult, classNumStr) if (classifierResult != classNumStr): errorCount += 1.0 print "\nthe total number of errors is : %d" % errorCount print "\nthe total error rate is: %d" % (errorCount/float(mTest))
2.4 本章小结
k-近邻算法是分类数据最简单最有效的算法。k-近邻算法是基于实例的学习,使用算法时必须有接近实际数据的训练数据样本数据。k-近邻算法必须保存全部数据集,如果训练数据集很大,必须使用大量的存储空间。此外,由于必须对数据集中的每个数据计算距离值,实际使用时很可能非常耗时。
k-近邻算法的另一个缺陷是它无法给出任何数据的基础结构信息,因此也无法知晓平均实例样本和典型实例样本具有什么特征。
参考文献
Harrington, Peter. “机器学习实战.” 人民邮电出版社, 北京 (2013).
阅读全文
0 0
- 机器学习实战—第2章 k-近邻算法
- 机器学习实战-第2章(k-近邻算法)
- 机器学习实战 第2章 k-近邻算法
- 机器学习实战---读书笔记: 第2章 k-近邻算法
- 机器学习实战(第2章 k-近邻算法)
- 【机器学习实战】第2章 K-近邻算法(k-NearestNeighbor,KNN)
- 《机器学习实战》—K-近邻算法
- 《机器学习实战》课程笔记(第2章) k-近邻算法
- 代码注释:机器学习实战第2章 k-近邻算法
- 【机器学习实战】第2章 K-近邻算法(KNN)
- 机器学习实战第2章-K近邻算法(KNN)
- 机器学习实战——第二章:K-近邻算法
- 机器学习实战之K-近邻算法
- 机器学习实战笔记 K近邻算法
- 《机器学习实战》之K-近邻算法
- 机器学习实战-k近邻算法
- 机器学习实战 k-近邻算法
- 【机器学习实战】-k近邻算法
- Mac下版本控制工具SourceTree的使用
- 继承(一)
- Translate的使用与物体运动
- 详解C语言中的stdin,stdout,stderr
- 171. Excel Sheet Column Number
- 机器学习实战—第2章 k-近邻算法
- 1-Opencv Mac+Xcode配置
- 变量值交换
- java高并发解决方案
- Android在调试小米note4中出现Installation failed with message Failed to establish session
- LeetCode-Hash Table
- Emoji表情符号兼容方案
- ubuntu 命令行卸载并清理软件
- HTTP协议