聚类算法——K临近(KNN)
来源:互联网 发布:大数据概念股一览表 编辑:程序博客网 时间:2024/06/06 02:09
邻近算法,或者说K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。
kNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于某一个类别,则该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。 kNN方法在类别决策时,只与极少量的相邻样本有关。由于kNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,kNN方法较其他方法更为适合。
KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成反比。
KNN的优点是:
1.简单,易于理解,易于实现,无需估计参数,无需训练;
2. 适合对稀有事件进行分类;
3. 特别适合于多分类问题(multi-modal,对象具有多个类别标签), kNN比SVM的表现要好。
缺点包括:
1. 当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。 该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。
2. 该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。
可理解性差,无法给出像决策树那样的规则。
- 聚类算法——K临近(KNN)
- KNN(K最临近算法)的python实现
- KNN(NearestNeighbor)临近算法,自然语言讲解
- KNN-临近算法
- 聚类算法——K-means, K-means++, KNN, GMM,
- K临近算法
- k-临近算法
- k-临近算法
- 机器学习——K近邻算法(KNN)
- 机器学习实战——k-近邻算法(KNN)
- 机器学习——K-近邻(KNN)算法
- K近邻算法(kNN)学习——kd树
- 机器学习——K-近邻(KNN)算法
- 机器学习实战——KNN(K近邻算法)
- 机器学习笔记之—K-近邻算法(KNN)
- 机器学习算法—K-近邻(一)(KNN)
- K-近邻算法(KNN)
- k近邻算法(kNN)
- 欢迎使用CSDN-markdown编辑器
- 顺序栈
- Java 实现网站当前在线用户统计
- 4Sum-LeetCode
- UVA1213 Sum of Different Primes(素数打表+dp)
- 聚类算法——K临近(KNN)
- matlab中axes用法
- 链式栈
- 聚类算法——K-means
- 【cocos2d-x 3.5】Lua的简单面向对象
- RedHat Linux 实现root身份的Telnet登录
- 很强大的 Swipe Layout:AndroidSwipeLayout
- UVA 1210 Sum of Consecutive Prime Numbers(数论)
- 在linux中配置安装telnet服务