机器学习(一):k最近邻(kNN)算法
来源:互联网 发布:比尔盖茨编程水平 编辑:程序博客网 时间:2024/05/16 14:40
一、概述
kNN算法,即K最近邻(k-NearestNeighbor)分类算法,是最简单的机器学习算法,没有之一。
该算法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。
如上图所示,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。由此也说明了KNN算法的结果很大程度取决于K的选择。
在kNN中,计算对象之间的距离通常使用欧氏距离。比如若是求二维平面的欧氏距离,则公式为d = sqrt[(x1 - x2)^2 + (y1 - y2)^2]
接下来对KNN算法的思想总结一下:就是在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类,其算法的描述为:
(一)计算测试数据与各个训练数据之间的距离;
(二)按照距离的递增关系进行排序;
(三)选取距离最小的K个点;
(四)确定前K个点所在类别的出现频率;
(五)返回前K个点中出现频率最高的类别作为测试数据的预测分类。
二、python函数准备
在用python编写kNN算法之前,有一些数值相关的python函数需要了解一下。
(一)shape()
shape是numpy函数库中的方法,用于查看矩阵或者数组的维素
shape(array)若矩阵有m行n列,则返回(m,n)
array.shape[0]返回矩阵的行数m,array.shape[1]返回矩阵的列数n
(二)tile()
tile()是numpy函数库中的方法,作用是数组沿各维度重复自己。函数的形式是tile(A,reps)。
以A=[1,2]为例。
例1:tile(A,2) = [1,2,1,2]
分析:A的第一个维度重复2遍(包含本身的一遍),得到的结果为[1,2,1,2]
例2:tile(A,(2,3)) = [[1,2,1,2,1,2], [1,2,1,2,1,2]]
分析:reps的数字从后往前分别对应A的第N个维度的重复次数。A的第一个维度重复3遍,得到[1,2,1,2,1,2]。在此基础上,第二个维度重复2遍,得到[[1,2,1,2,1,2], [1,2,1,2,1,2]]
例3:tile(A,(2,2,3)) = [[[1,2,1,2,1,2], [1,2,1,2,1,2]],
[[1,2,1,2,1,2], [1,2,1,2,1,2]]]
分析:reps的数字从后往前分别对应A的第N个维度的重复次数。A的第一个维度重复3遍,得到[1,2,1,2,1,2]。在此基础上,第二个维度重复2遍,得到[[1,2,1,2,1,2], [1,2,1,2,1,2]]。在此基础上,第三个维度重复2遍,得到[[[1,2,1,2,1,2], [1,2,1,2,1,2]], [[1,2,1,2,1,2], [1,2,1,2,1,2]]]
(三)sum()
sum()是numpy函数库中的方法
array.sum(axis=1)按行累加,array.sum(axis=0)按列累加
例:A = [[1,2],[3,4]],则A.sum(axis=1) = [3, 7],A.sum(axis=0) = [4, 6]
(四)argsort()
argsort()是numpy中的方法,得到排序后新矩阵中每个元素对应于该元素在未排序前旧矩阵中的位置。
例:A = [3, 1, 2],则argsort(A) = [1, 2, 0]。因为排序后A’= [1, 2, 3],”1”是A的第1个元素,”2”是A的第2个元素,”3”是A的第0个元素,所以结果为[1, 2, 0]
(五)get()
dict.get(key, default=None)是python中的方法,default表示假如指定的键不存在的话,返回的默认值。
例:dict d={‘age’, 20},则d.get(‘age’,0) = 20, d.get(‘name’, 0) = 0
三、程序实现
(一)代码
# coding:utf-8from numpy import *import operator# 给出训练数据以及对应的类别def createDataSet(): group = array([[1.0,2.0],[1.2,0.1],[0.1,1.4],[0.3,3.5]]) labels = ['A','A','B','B'] return group,labels# 通过KNN进行分类def classify(input,dataSet,label,k): dataSize = dataSet.shape[0] # 计算欧氏距离 diff = tile(input,(dataSize,1)) - dataSet sqDiff = diff ** 2 sqDiffSum = sum(sqDiff,axis = 1) #行向量分别相加,从而得到新的一个行向量 dist = sqDiffSum ** 0.5 # 对距离进行排序,按从小到大的规则 sortedDistIndex = argsort(dist) classCount={} for i in range(k): voteLabel = label[sortedDistIndex[i]] # 对选取的K个样本所属的类别个数进行统计 classCount[voteLabel] = classCount.get(voteLabel,0) + 1 # 选取出现的类别次数最多的类别 maxCount = 0 for key,value in classCount.items(): if value > maxCount: maxCount = value classes = key return classesdef test(): dataSet,labels = createDataSet() input = array([1.1,0.3]) K = 3 output = classify(input,dataSet,labels,K)print("Test data:",input,"classify result:",output)
(二)运行结果
打开cmd命令行窗口,输入如下命令
> pushd E:\MachineLearning\kNN > python >>> import kNN >>> kNN.test()
四、程序分析
(一)这里训练集为
[[1.0, 2.0],
[1.2, 0.1],
[0.1, 1.4],
[0.3, 3.5]]
训练集中的4个元素分别对应于类别A, A, B, B
可将训练集中的四个元素看做四个点:
x0(1.0, 2.0), x1(1.2, 0.1), x2(0.1, 1.4), x3(0.3, 3.5)
测试点为x(1.1, 0.3)
(二)classify()函数逐行分析
dataSize = 4(行数)
tile(input, (4, 1)) =
[[1.1, 0.3],
[1.1, 0.3],
[1.1, 0.3],
[1.1, 0.3]]
tile(input, (4, 1) - dataSet =
[[ 0.1, -1.7],
[-0.1, 0.2],
[1, -1.1],
[0.8, -3.2]]
这里每行中的两个数,表示
x - x0 = 0.1, y - y0 = -1.7
x - x1 = -0.1, y - y1 = 0.2
x - x2 = 1, y - y2 = -1.1
x - x3 = 0.8, y - y3 = -3.2
sqDiff =
[[0.01, 2.89],
[0.01, 0.04],
[1, 1.21],
[0.64, 10.24]]
这些数据的意义为
(x - x0)^2 = 0.01, (y - y0)^2 = 2.89
(x - x1)^2 = 0.01, (y - y1)^2 = 0.04
(x - x2)^2 = 1, (y - y2)^2 = 1.21
(x - x3)^2 = 0.64, (y - y3)^2 = 10.24
sqDiffSum =
[2.9,
0.05,
2.21,
10.88]
这里每个元素就代表每个点与x0的距离的平方,即
d0^2 = (x - x0)^2 + (y - y0)^2 = 2.9
d1^2 = (x - x1)^2 + (y - y1)^2 = 0.05
d2^3 = (x - x2)^2 + (y - y2)^2 = 2.21
d3^4 = (x - x3)^2 + (y - y3)^2 = 10.88
dist =
[1.70293864,
0.2236068,
1.48660687,
3.2984845]
这里每个元素代表每个点与x0的距离,即
d0 = 1.70293864
d1 = 0.2236068
d2 = 1.48660687
d3 = 3.2984845
sortedDistIndex = [1, 2, 0, 3],表示
最小的距离位于dist中的第1个位置,即d1
次小的距离的位于dist中的第2个位置,即d2
第三小的距离位于dist中的第0个位置,即d0
最大距离位于dist中的第3位置,即d3
第一个for循环中,
for 0 in range(3)
voteLabel = label[1] = ‘A’
classCount[‘A’] = 1
for 1 in range(3)
voteLabel = label[2] = ‘B’
classCount[‘B’] = 1
for 2 in range(3)
voteLabel = labe[0] = ‘A’
classCount[‘A’] = 2
所以,字典classCount中的值为{‘A’:2, ‘B’:1}。
第二个for循环中,
for ‘A’,2 in classCount
value = 2, maxCount = 0, if条件成立
maxCount = 2, classes = ‘A’
for ‘B’,1 in classCount
value = 1, maxCount = 2, if条件不成立。循环结束。
最终,返回classes=’A’
五、Github代码下载地址
kNN算法下载
- 机器学习(一):k最近邻(kNN)算法
- 机器学习算法—K-近邻(一)(KNN)
- 【机器学习】k近邻算法(kNN)
- 机器学习--k-近邻(kNN)算法
- 机器学习算法之K最近邻(kNN)
- 机器学习之K-最近邻规则分类(KNN)算法
- 机器学习实战--最简单算法--KNN算法(k-近邻算法)
- 机器学习算法------K近邻算法(kNN)
- 几个常用机器学习算法 - k近邻算法(kNN)
- 机器学习--k-近邻(kNN)算法
- 机器学习--k-近邻(kNN)算法案例
- 机器学习:KNN K近邻算法
- 机器学习 - K-近邻算法(KNN)
- 机器学习实战:K近邻算法(kNN)
- 机器学习算法----KNN K近邻
- 【机器学习】KNN k近邻分类算法
- 机器学习基于K-近邻算法(KNN)
- 【机器学习】k-近邻算法(kNN) 学习笔记
- jfinal 判断是否是multipart类型
- Android Studio配置Gradle(包括signingConfigs、buildTypes和productFlavors等)
- Zabbix的events表和event API
- Python学习笔记(三)——模块|面向对象
- PHP按行读取文件时删除换行符的3种方法
- 机器学习(一):k最近邻(kNN)算法
- Mysql常用命令
- 洛谷P2679 NOIP2015 子串
- Base64位图片上传和解密
- 简单页面(C标签)+java后台+数据库,对前篇文章的改进
- SSH项目整合-简单在线订单系统
- 小白算法练习 简单背包专题003 完全背包 hdu lanqiao 包子凑数 dp
- 归档命令(4)——gzip
- 算法学习笔记17-经典排序算法