kNN(K-Nearest Neighbor)最邻近规则分类
来源:互联网 发布:澄海 全知药水 编辑:程序博客网 时间:2024/05/18 04:12
基本想法:
在距离空间里,如果一个样本的最接近的k个邻居里,绝大多数属于某个类别,则该样本也属于这个类别。俗话叫,“随大流”。思路是:如果一个样本在特征空间的k个最相思(即特征空间中最近邻)的样本的大多数属于某一类别,则该样本也属于这一类别。
算法描述:
- 1. 依公式计算 Item 与 D1、D2 … …、Dj 之相似度。得到Sim(Item, D1)、Sim(Item, D2)… …、Sim(Item, Dj)。
- 2. 将Sim(Item, D1)、Sim(Item, D2)… …、Sim(Item, Dj)排序,若是超过相似度阈值t则放入邻居案例集合NN。
- 3. 自邻居案例集合NN中取出前k名,依多数决,得到Item可能类别。
距离一般使用欧式距离或者曼哈顿距离:
KNN通过依据k个对象中占优的类别进行决策,而不是单一的对象类别决策。
参数K的选取:
如何选择一个最佳的K值取决于数据。一般情况下,在分类时较大的K值能够减小噪声的影响。但会使类别之间的界限变得模糊。比如下图,
待测样本(绿色圆圈)既可能分到红色三角形类,也可能分到蓝色正方形类。如果k取3,从图可见,待测样本的3个邻居在实线的内圆里,按多数投票结果,它属于红色三角形类,票数1:2.但是如果k取5,那么待测样本的最邻近的5个样本在虚线的圆里,按表决法,它又属于蓝色正方形类,票数2(红色三角形):3(蓝色正方形)。
python实现
首先呢,需要说明的是本文用的是python3.4.3,用法与2.7有些出入,建立一个KNN.py文件对算法可行性进行验证。
#coding:utf-8
from numpy import *
import operator
##给出训练数据以及对应的类别
def createDataSet():
group = array([[1.0,2.0],[1.2,0.1],[0.1,1.4],[0.3,3.5]])
labels = ['A','A','B','B']
return group,labels
###通过KNN进行分类
def classify(input,dataSe t,label,k):
dataSize = dataSet.shape[0]
####计算欧式距离
diff = tile(input,(dataSize,1)) - dataSet
sqdiff = diff ** 2
squareDist = sum(sqdiff,axis = 1)###行向量分别相加,从而得到新的一个行向量
dist = squareDist ** 0.5
##对距离进行排序
sortedDistIndex = argsort(dist)##argsort()根据元素的值从大到小对元素进行排序,返回下标
classCount={}
for i in range(k):
voteLabel = label[sortedDistIndex[i]]
###对选取的K个样本所属的类别个数进行统计
classCount[voteLabel] = classCount.get(voteLabel,0) + 1
###选取出现的类别次数最多的类别
maxCount = 0
for key,value in classCount.items():
if value > maxCount:
maxCount = value
classes = key
return classes
接下来,在命令窗口输入:
#-*-coding:utf-8 -*-
import sys
sys.path.append("...文件路径...")
import KNN
from numpy import *
dataSet,labels = KNN.createDataSet()
input = array([1.1,0.3])
K = 3
output = KNN.classify(input,dataSet,labels,K)
print("测试数据为:",input,"分类结果为:",output)
回车之后结果为:
测试数据为:[1.1 0.3] 分类为:A
例子(电影分类):
电影名称打斗次数接吻次数电影类型
这个数据用打斗次数和接吻次数来界定电影类型,接吻多的是Romance类型的,而打斗多的是动作电影。现在有一部名字未知的电影,打斗次数为18次,接吻次数为90次的电影(这里名字未知是为了防止能从名字中猜出电影类型),它到底属于哪种类型的电影呢?
下面调用python的sklearn模块求解:(转自KNN算法介绍)
- import numpy as np
- from sklearn import neighbors
- knn = neighbors.KNeighborsClassifier() #取得knn分类器
- data = np.array([[3,104],[2,100],[1,81],[101,10],[99,5],[98,2]]) # <span style="font-family: Arial, Helvetica, sans-serif;">data对应着打斗次数和接吻次数</span>
- labels = np.array([1,1,1,2,2,2]) #<span style="font-family: Arial, Helvetica, sans-serif;">labels则是对应Romance和Action</span>
- knn.fit(data,labels) #导入数据进行训练'''
- knn.predict([18,90])
说明:
首先,用labels数组中的1和2代表Romance和Aciton,因为sklearn不接受字符数组作为标志,只能用1,2这样的int型数据来表示,后面处理可以将1和2映射到Romance和Action上来。fit则是用data和labels进行训练,data对应的是打斗次数和接吻次数构成的向量,称之为特征向量。labels则是这个数据所代表的电影所属的类型。调用predict 进行预测,将未知电影的特征向量代入,则能分析出该未知电影所属的类型。此处计算结果为1,也就是该未知电影属于Romance,和直觉相符。
KNN属于比较完善的算法,但是由于其效率不是很高,因此现在很少有用,仅供参考!
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- kNN(K-Nearest Neighbor)最邻近规则分类
- 最邻近规则分类(K-Nearest Neighbor)KNN算法
- 最邻近规则分类(K-Nearest Neighbor)KNN算法应用
- 机器学习算法:kNN(K-Nearest Neighbor)最邻近规则分类
- 4.1 最邻近规则分类(K-Nearest Neighbor)KNN算法
- 4.2 最邻近规则分类(K-Nearest Neighbor)KNN算法应用m
- 机器学习——最邻近规则分类(K Nearest Neighbor)KNN算法
- 机器学习——最邻近规则分类(K Nearest Neighbor)KNN算法的应用
- 不改变正负数相对顺序的重新排列
- TCP/IP编程之listen函数backlog参数详解(linux)
- win32开发流程
- JavaScript学习之引入方式、变量与方法
- Java Spring的基本知识
- kNN(K-Nearest Neighbor)最邻近规则分类
- 减少qcow2虚拟磁盘文件实际占用的存储空间
- ip的合法性判断
- vue.js简单实例
- jmeter之Sampler响应结果编码修改(解决乱码问题)
- 浅谈面向过程编程和面向对象编程
- 继承appcompatactivity 全屏
- 学习muduo(win平台的实现,未完成)
- web.xml详解(转)