数据挖掘---分类算法之K近邻(KNN)算法
来源:互联网 发布:解压加密文件软件 编辑:程序博客网 时间:2024/04/29 22:48
KNN 算法本身简单有效,它是一种 lazy-learning 算法,分类器不需要使用训练集进行训练,训练时间复杂度为0。KNN 分类的计算复杂度和训练集中的文档数目成正比,也就是说,如果训练集中文档总数为 n,那么 KNN 的分类时间复杂度为O(n)。
KNN方法虽然从原理上也依赖于极限定理,但在类别决策时,只与极少量的相邻样本有关。由于KNN方法主要靠周围有限的邻近的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待分样本集来说,KNN方法较其他方法更为适合。
K 近邻算法使用的模型实际上对应于对特征空间的划分。K 值的选择,距离度量和分类决策规则是该算法的三个基本要素:
1. K 值的选择会对算法的结果产生重大影响。K值较小意味着只有与输入实例较近的训练实例才会对预测结果起作用,但容易发生过拟合;如果 K 值较大,优点是可以减少学习的估计误差,但缺点是学习的近似误差增大,这时与输入实例较远的训练实例也会对预测起作用,是预测发生错误。在实际应用中,K 值一般选择一个较小的数值,通常采用交叉验证的方法来选择最优的 K 值。随着训练实例数目趋向于无穷和 K=1 时,误差率不会超过贝叶斯误差率的2倍,如果K也趋向于无穷,则误差率趋向于贝叶斯误差率。
2. 该算法中的分类决策规则往往是多数表决,即由输入实例的 K 个最临近的训练实例中的多数类决定输入实例的类别
3. 距离度量一般采用 Lp 距离,当p=2时,即为欧氏距离,在度量之前,应该将每个属性的值规范化,这样有助于防止具有较大初始值域的属性比具有较小初始值域的属性的权重过大。
KNN算法不仅可以用于分类,还可以用于回归。通过找出一个样本的k个最近邻居,将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成反比。 该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。 该算法只计算“最近的”邻居样本,某一类的样本数量很大,那么或者这类样本并不接近目标样本,或者这类样本很靠近目标样本。无论怎样,数量并不能影响运行结果。可以采用权值的方法(和该样本距离小的邻居权值大)来改进。
该方法的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那些样本容量较小的类域采用这种算法比较容易产生误分。
说了这么多理论,咱来点实际的,下面用代码实现了简单的KNN。
import java.util.ArrayList;import java.util.Iterator;import java.util.List;import java.util.Map;import java.util.TreeMap;import java.util.TreeSet;public class KNN {public static java.text.DecimalFormat df = new java.text.DecimalFormat("#0.00");/**K Nearest Neighbour * 计算给定点到每个点的距离,选择距离最近的K个点,看K个点属于哪个类别最多,则该给定点也属于该类别 * */public static String CLS_SFX = "类";public int K;public List<KPoint> allData;@SuppressWarnings("rawtypes")public void knn(KPoint xpoint) {TreeSet<KPoint> ts = new TreeSet<KPoint>();//1.计算xpoint到每个点的距离,放到TreeSet中根据距离排序for (int i = 0; i < allData.size(); i++) {KPoint p = allData.get(i);double dis = getDistance(p, xpoint);p.dis = dis;ts.add(p);}for (Iterator it = ts.iterator(); it.hasNext();) {System.out.println(df.format(((KPoint) it.next()).dis));}KPoint ps[] = (KPoint[]) ts.toArray(new KPoint[0]);Map<String,Integer> voteMap = new TreeMap<String,Integer>();//2.选择K个最近的,类别投票for (int i = 0; i < K; i++) {System.out.println((i + 1) + "---" + ps[i]);int cnt = 1;if (voteMap.containsKey(ps[i].label)) {cnt = ((Integer) voteMap.get(ps[i].label)).intValue() + 1;}voteMap.put(ps[i].label, cnt);}//3.得到最多投票String votes[] = (String[]) voteMap.keySet().toArray(new String[0]);TreeSet<VoteResult> result = new TreeSet<VoteResult>();for (String vote : votes) {result.add(new VoteResult(vote, (int) voteMap.get(vote)));}System.out.println("Result=" + ((VoteResult) result.first()).label);}//简单计算距离public static double getDistance(KPoint a, KPoint b) {return Math.sqrt((a.x - b.x) * (a.x - b.x) + (a.y - b.y) * (a.y - b.y));}public static void main(String[] args) {KNN kn = new KNN();kn.K = 3;List<KPoint> data = new ArrayList<KPoint>();data.add(new KPoint(1, 1, CLS_SFX + "A"));data.add(new KPoint(1.1, 1.1, CLS_SFX + "A"));data.add(new KPoint(10, 10, CLS_SFX + "B"));data.add(new KPoint(10.1, 10.1, CLS_SFX + "B"));data.add(new KPoint(10.1, 10.13, CLS_SFX + "B")); for (int i = 0; i < 10; i++) {// data.add(new KPoint(Math.random(),Math.random())); }kn.allData = data;kn.knn(new KPoint(0.1, 0.4));}}class VoteResult implements java.lang.Comparable<VoteResult> {public String label;public int count;public VoteResult(String label, int count) {super();this.label = label;this.count = count;} //比较得票数量@Overridepublic int compareTo(VoteResult kp) {if (this.count > kp.count) {return -1;} else if (this.count < kp.count) {return 1;} elsereturn 0;}}class KPoint implements java.lang.Comparable<KPoint> {public double x;public double y;public String label;public double dis;public KPoint() {this.x = 0.0;this.y = 0.0;}public KPoint(double x, double y) {super();this.x = x;this.y = y;}public KPoint(double x, double y, String label) {super();this.x = x;this.y = y;this.label = label;}public String toString() {return "(" + KNN.df.format(x) + "," + KNN.df.format(y) + "," + label + ","+ KNN.df.format(dis) + ")";} //比较距离@Overridepublic int compareTo(KPoint kp) {if (this.dis > kp.dis) {return 1;} else if (this.dis < kp.dis) {return -1;} elsereturn 0;}}
- 数据挖掘---分类算法之K近邻(KNN)算法
- 数据挖掘算法(一)--K近邻算法 (KNN)
- k近邻分类算法(kNN)
- K近邻(KNN):分类算法
- K最近邻分类算法(KNN)
- K-近邻分类算法KNN
- K-近邻分类算法KNN
- 数据挖掘:K最近邻(KNN)算法的java实现
- 数据挖掘:K最近邻(KNN)算法的java实现
- 数据挖掘:K最近邻(KNN)算法的java实现
- 分类算法(1) ---- K近邻算法(KNN)
- KNN(K-最近邻分类)分类算法
- 机器学习之K-最近邻规则分类(KNN)算法
- 数据挖掘-ionosphere数据集-k近邻算法-分类预测
- 【模式识别】K-近邻分类算法KNN
- kNN k 近邻 分类算法 简介
- 【模式识别】K-近邻分类算法KNN
- 【机器学习】KNN k近邻分类算法
- 准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure
- python遍历文件夹获取指定格式的文件
- Android框架 androidannotations 的配置 android studio 配置
- 线性表相关读书笔记
- 学习潜水-20160831-Mac移动硬盘内部分文件变成灰色导致无法复制和执行
- 数据挖掘---分类算法之K近邻(KNN)算法
- HTML5+CSS小知识点
- 使用 mysql 游标 批量更新数据
- $_POST、input数据流和$HTTP_RAW_POST_DATA的区别
- FBI警示——选举网站被黑,所有眼睛都盯着俄罗斯黑客
- PHP简单签到功能实现
- 2428: [HAOI2006]均分数据
- javascript 创建动态表格
- jQuery-file-upload插件的使用(小实例)