机器学习实战—第2章 k-近邻算法

来源:互联网 发布:powerdesigner mac 编辑:程序博客网 时间:2024/06/08 08:10

2.1 K-近邻算法概述


k-近邻算法

  • 优点:
    • 精度高、对异常值不敏感、无数据输入假定
  • 缺点
    • 计算复杂度高、空间复杂度高
  • 使用数据范围:
    • 数值型和标称型

k-近邻算法的工作原理:

存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即知道样本集中每一数据与所属分类的关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,只选择样本数据集中前k个最相似的数据,通常k不大于20,选择k个最相似数据中出现次数最多的分类,作为数据的分类。


k-近邻算法的一般流程:

  • 收集数据:可以使用任何方法
  • 准备数据:距离计算所需要的数值,最好是结构化的数据格式
  • 分析数据:可以使用任何方法
  • 训练算法:此步骤不适用于k-近邻算法
  • 测试算法:计算错误率
  • 使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理

# -*- coding: utf-8 -*-"""Created on Wed May 24 21:42:55 2017@name: kNN.py@author: L. D. Xiao"""from numpy import *import operator#==============================================================================# 创建数据集和标签#==============================================================================def createDataSet():    group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])    labels = ['A','A','B','B']    return group, labels#================================ kNN算法 ======================================# kNN对未知类别属性的数据集中的每个点依次执行以下操作:#     计算已知类别数据集中的点与当前点之间的距离;#     按照距离递增次序排序;#     选取与当前点距离最小的k个点;#     确定前k个点所在类别的出现频率;#     返回前k个点出现频率最高的类别作为当前点的预测分类#==============================================================================def classify0(inX, dataSet, labels,k):    dataSetSize = dataSet.shape[0]    #numpy.tile(A,(m,n)):在行方向上重复A m次,列方向上重复A n次    diffMat = tile(inX, (dataSetSize,1)) - dataSet    sqDiffMat = diffMat**2    sqDistances = sqDiffMat.sum(axis=1)    distances = sqDistances**0.5    sortedDistIndices = distances.argsort()    classCount={}    for i in range(k):        voteIlabel = labels[sortedDistIndices[i]]        classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1    sortedClassCount = sorted(classCount.iteritems(),key=operator.itemgetter(1),reverse=True)    return sortedClassCount[0][0]

2.2 示例:使用k-近邻算法改进约会网站的配对效果


示例:在约会网站上使用k-近邻算法


  • 收集数据:提供文本文件
  • 准备数据:使用Python解析文本文件
  • 分析数据:使用Matplotlib画二维散点图
  • 训练算法:此步骤不适用于k-近邻算法
  • 测试算法:使用提供的部分数据作为测试样本
  • 使用算法:产生简单的命令行程序,然后可以输入一些特征数据以判断对方是否为喜欢的类型

利用Python处理文本文件数据:

#==============================================================================# 将文本文件记录转换为NumPy矩阵#==============================================================================def file2matrix(filename):    fr = open(filename)    arrayOLines = fr.readlines()    numberOfLines = len(arrayOLines)    returnMat = zeros((numberOfLines,3))    classLabelVector = []    index = 0    for line in arrayOLines:        line = line.strip()        listFromLine = line.split('\t')        returnMat[index,:] = listFromLine[0:3]        classLabelVector.append(int(listFromLine[-1]))        index += 1    return returnMat,classLabelVector

使用Matplotlib可视化分析数据:

#==============================================================================# 分析数据:使用Matplotlib创建散点图#==============================================================================import matplotlibimport matplotlib.pyplot as pltfig = plt.figure()ax = fig.add_subplot(111)ax.scatter(returnMat[:,4], returnMat[:,5], 15*array(returnMat[:,4]), 15*array(returnMat[:,4]))

针对各特征归一化,以有效的计算各样本间的距离:

#==============================================================================# 将数值特征归一化处理 newValue = (oldValue - min) / (max - min)#==============================================================================def autoNorm(dataSet):    minVals = dataSet.min(0)    maxVals = dataSet.max(0)    ranges = maxVals - minVals    normDataSet = zeros(shape(dataSet))    m = dataSet.shape[0]    normDataSet = dataSet - tile(minVals,(m,1))    normDataSet = normDataSet/tile(ranges,(m,1))    return normDataSet, ranges, minVals

构建分类器针对约会网站的测试代码:

#==============================================================================# 程序清单2-4:分类器针对约会网站的测试代码#==============================================================================def datingClassTest():    hoRatio = 0.10    datingDataMat,datingLabels = file2matrix('datingTestSet.txt')    normMat, ranges, minVals = autoNorm(datingDataMat)    m = normMat.shape[0]    numTestVecs = int(m*hoRatio)    errorCount = 0.0    for i in range(numTestVecs):        classifierResult = classify0(normMat[i,:], normMat[numTestVecs:m, :], \                                     datingLabels[numTestVecs:m], 3)        print "the classifier came back with: %d, the real answer is: %d" \                                     % (classifierResult, datingLabels[i])        if (classifierResult != datingLabels[i]): errorCount += 1.0    print "the total error rate is: %f" % (errorCount/float(numTestVecs))

使用算法:构建完整可用系统:

#==============================================================================# 程序清单2-5:约会网站预测函数#==============================================================================def classifyPerson():    resultList = ['not at all', 'in small doses', 'in large doses']    percentTats = float(raw_input(\                                  "percentage of time spent playing video games ?"))    ffMiles = float(raw_input("frequent flier miles earned per year ?"))    iceCream = float(raw_input("liters of ice cream consumed per year ?"))    datingDataMat,datingLabels = file2matrix('datingTestSet2.txt')    normMat, ranges, minVals = autoNorm(datingDataMat)    inArr = array([ffMiles, percentTats, iceCream])    classifierResult = classify0((inArr-minVals)/ranges, normMat, datingLabels, 3)    print "You will probably like this person: ", resultList[classifierResult - 1]

2.3 示例:手写识别系统


示例:使用k-近邻算法的手写识别系统


  • 收集数据:提供文本文件
  • 准备数据:编写函数classify0(),将图像格式转换为分类器使用的list格式
  • 分析数据:在Python命令提示符中检查数据,确保它符合要求
  • 训练算法:此步骤不适用于k-近邻算法
  • 测试算法:编写函数使用提供的部分数据集作为测试样本
  • 使用算法:本示例未完成

#==============================================================================# 将32*32的二进制图像转换为1*1024的向量#==============================================================================def img2vector(filename):    returnVect = zeros((1,1024))    fr = open(filename)    for i in range(32):        lineStr = fr.readline()        for j in range(32):            returnVect[0,32*i+j] = int(lineStr[j])    return returnVect#==============================================================================# 程序清单2-6:手写数字识别系统的测试代码#==============================================================================def handwritingClassTest():    hwLabels = []    trainingFileList = listdir('trainingDigits')    m = len(trainingFileList)    trainingMat = zeros((m,1024))    for i in range(m):        fileNameStr = trainingFileList[i]        fileStr = fileNameStr.split('.')[0]        classNumStr = int(fileStr.split('_')[0])        hwLabels.append(classNumStr)        trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)    testFileList = listdir('testDigits')    errorCount = 0.0    mTest = len(testFileList)    for i in range(mTest):        fileNameStr = testFileList[i]        fileStr = fileNameStr.split('.')[0]        classNumStr = int(fileStr.split('_')[0])        vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)        classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)        print "the classifier came back with: %d, the real answer is : %d"\                                          % (classifierResult, classNumStr)        if (classifierResult != classNumStr):            errorCount += 1.0    print "\nthe total number of errors is : %d" % errorCount    print "\nthe total error rate is: %d" % (errorCount/float(mTest))

2.4 本章小结

k-近邻算法是分类数据最简单最有效的算法。k-近邻算法是基于实例的学习,使用算法时必须有接近实际数据的训练数据样本数据。k-近邻算法必须保存全部数据集,如果训练数据集很大,必须使用大量的存储空间。此外,由于必须对数据集中的每个数据计算距离值,实际使用时很可能非常耗时。
k-近邻算法的另一个缺陷是它无法给出任何数据的基础结构信息,因此也无法知晓平均实例样本和典型实例样本具有什么特征。


参考文献
Harrington, Peter. “机器学习实战.” 人民邮电出版社, 北京 (2013).