k近邻法: k-nearest neighbor
来源:互联网 发布:d3.js绘制社交图谱 编辑:程序博客网 时间:2024/05/17 05:01
KNN
k近邻算法既可以作为分类方法也可以作为回归方法。考虑作为分类的时候,算法的输入为特征空间,输出为实例的类别。
基本思想:给定一个训练集,然后寻找其中与新输入的实例最近的
K 近邻模型
距离度量
常见的距离度量有:欧氏距离、曼哈顿距离、闵可夫斯基距离、契比雪夫距离。不同的距离度量计算出来的最近邻点是不相同的。
具体的内容可以参考:常用的相似性度量
k值选择
K值的较小意味着模型的复杂度上升,容易过拟合;k值的增大意味着模型区域简单,容易欠拟合。实际应用中通常使用交叉验证法来选取最优的K值。
分类决策规则
k近邻的分类决策规则往往是少数服从多数,即k个近邻实例中哪个类别的实例多就将新实例标记为哪类。
假设分类的损失函数为0-1损失函数,分类函数为:
那么误分类的概率为:
定义的损失函数为:
根据最小化经验风险的原则,k近邻的多数表决规则等价于经验风险最小化。
实现
KD树
Reference:
[1]《统计学习方法》,李航.
[2]常用的相似性度量
阅读全文
0 0
- k近邻法(k-nearest neighbor)
- k近邻法k-nearest neighbor
- k近邻法: k-nearest neighbor
- k近邻法(k-nearest neighbor, k-NN)
- 第三章 K近邻法(k-nearest neighbor)
- k-近邻算法(k-Nearest Neighbor)
- k-近邻算法(k-Nearest Neighbor, kNN)
- k-近邻算法(k-Nearest Neighbor,KNN)
- K近邻算法(K-Nearest Neighbor)
- k-近邻算法(k-Nearest Neighbor)
- k近邻算法(K-Nearest Neighbor)
- k-Nearest Neighbor-最近邻分类算法
- K近邻k-Nearest Neighbor(KNN)算法的理解
- K最近邻(KNN,k-Nearest Neighbor)准确理解
- python-手写knn(k Nearest Neighbor) k近邻算法
- K近邻k-Nearest Neighbor(KNN)算法
- KNN(K-nearest neighbor algorithm)K近邻算法
- 机器学习笔记(一)k近邻算法(k-Nearest Neighbor)
- 【Windows网络编程】完成端口IOCP介绍(超详细)
- Vijos P1021 Victoria的舞会1
- http协议
- Spark Streaming从Flume读取数据流(pull模式)
- 机器学习-学习笔记 Caffe安装-MNIST(手写体数字识别)
- k近邻法: k-nearest neighbor
- C语言基础
- 计算机视觉领域一些牛人博客
- 欢迎使用CSDN-markdown编辑器
- sringboot项目在tomcat上的部署
- Spark2.2 内核架构深层剖析图解
- erlang 数据机构 -- array
- 1080p和1080i有什么区别?
- 如何看待苹果股票下跌?国产推理剧要逆天? | 数据周报