OpenCV的k
来源:互联网 发布:网络用语略略什么意思 编辑:程序博客网 时间:2024/06/06 00:04
OpenCV的k - means聚类
目标
- 学习使用cv2.kmeans()数据聚类函数OpenCV
理解参数
输入参数
样品:它应该的np.float32数据类型,每个特性应该被放在一个单独的列。
nclusters(K):数量的集群需要结束
- 标准:这是迭代终止准则。 当这个标准是满足,算法迭代停止。 实际上,它应该是一个元组的三个参数。 他们是
( type,max_iter,epsilon)
:
- 3. a -type 的终止条件:它有三个标志如下:
- cv2.TERM_CRITERIA_EPS——停止算法迭代如果指定的精度,ε是达到了。cv2.TERM_CRITERIA_MAX_ITER——停止指定数量的迭代算法后,max_iter。cv2。 TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER——任何上述条件时停止迭代。
- 3. b - max_iter整数指定最大迭代数。
- 3. c -epsilon 所需精度
尝试:标记来指定执行的次数算法使用不同的初始标签。 算法返回标签,产生最佳的密实度。 这个密实度是作为输出返回。
旗帜:这个标志用于指定初始中心。 通常用于这两个标记:cv2.KMEANS_PP_CENTERS和cv2.KMEANS_RANDOM_CENTERS。
输出参数
- 密实度:这是每一个点的距离的平方和相应的中心。
- 标签:这是标签阵列,其中每个元素标记1,另一个为0
- 中心:这是一系列的集群中心。
以下是示例代码:
第一个基本语法 与 一维数据聚类
# -*- coding:utf-8 -*-__author__ = 'FontTian'__Date__ = '2017/5/13'import numpy as npimport cv2from matplotlib import pyplot as pltx = np.random.randint(25,100,25)y = np.random.randint(175,255,25)z = np.hstack((x,y))z = z.reshape((50,1))z = np.float32(z)plt.hist(z,256,[0,256]),plt.show()# Define criteria = ( type, max_iter = 10 , epsilon = 1.0 )# 这是迭代终止准则:type(A = TERM_CRITERIA_EPS 按照精度终止,B = TERM_CRITERIA_MAX_ITER,按照迭代次数终止,A+B 满足任一条件时终止)criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)# Set flags (Just to avoid line break in the code)# 用以指定初始中心flags = cv2.KMEANS_RANDOM_CENTERS# Apply KMeans''' 密实度 :这是每一个点的距离的平方和相应的中心。 标签 :这是标签阵列,其中每个元素标记0,1..... 中心 :这是一系列的集群中心。'''compactness,labels,centers = cv2.kmeans(z,2,None,criteria,10,flags)A = z[labels==0]B = z[labels==1]# Now plot 'A' in red, 'B' in blue, 'centers' in yellowplt.hist(A,256,[0,256],color = 'r')plt.hist(B,256,[0,256],color = 'b')plt.hist(centers,32,[0,256],color = 'y')plt.show()
第二个:多维数据聚类
# -*- coding:utf-8 -*-__author__ = 'FontTian'__Date__ = '2017/5/13'import numpy as npimport cv2from matplotlib import pyplot as pltX = np.random.randint(25,50,(25,2))Y = np.random.randint(60,85,(25,2))Z = np.vstack((X,Y))# convert to np.float32Z = np.float32(Z)# define criteria and apply kmeans()criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)ret,label,center=cv2.kmeans(Z,2,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS)# Now separate the data, Note the flatten()A = Z[label.ravel()==0]B = Z[label.ravel()==1]# Plot the dataplt.scatter(A[:,0],A[:,1])plt.scatter(B[:,0],B[:,1],c = 'r')plt.scatter(center[:,0],center[:,1],s = 80,c = 'y', marker = 's')plt.xlabel('Height'),plt.ylabel('Weight')plt.show()
第三个,图片的颜色量化
# -*- coding:utf-8 -*-__author__ = 'FontTian'__Date__ = '2017/5/13'import numpy as npimport cv2img = cv2.imread('spaceship.jpg')Z = img.reshape((-1,3))# convert to np.float32Z = np.float32(Z)j =0# define criteria, number of clusters(K) and apply kmeans()criteria = (cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 10, 1.0)Klist = [2,4,6,8,10]for i in Klist: ret,label,center=cv2.kmeans(Z,i,None,criteria,10,cv2.KMEANS_RANDOM_CENTERS) j +=2 # Now convert back into uint8, and make original image center = np.uint8(center) res = center[label.flatten()] res2 = res.reshape((img.shape)) cv2.imshow(str(("spaceship K=",i)), res2) cv2.waitKey(0)cv2.imshow('quondam image',img)cv2.waitKey(0)cv2.destroyAllWindows()
下面是我使用的示例图片:
阅读全文
1 0
- OpenCV的k
- opencv的K近邻算法
- opencv K邻近分类器的使用
- OpenCV k-means聚类
- OpenCv K近邻算法
- opencv笔记:K-mean
- opencv k近邻
- opencv k-means
- opencv K均值算法
- opencv中mat和k聚类的问题
- Opencv videowriter保存的视频只有几K
- 基于opencv的L-K光流法跟踪运动目标
- opencv 学习之 基于K近邻的数字识别
- OpenCV Machine Learning 之 K最近邻分类器的应用 K-Nearest Neighbors
- openCV中的K-D Tree
- OpenCV K均值代码笔记
- OpenCV函数cvWaitKey(k)简介
- opencv——k-means
- Neural Architectures for Named Entity Recognition
- Linux 下tomcat设置JVM参数
- P1149 火柴棒等式
- HDU2112(map+Dijstra最短路)
- STM32-步进电机S型加减速控制
- OpenCV的k
- 欢迎使用CSDN-markdown编辑器
- 大话设计模式之策略模式
- 机器学习笔记10——应用机器学习算法的建议
- Spring-1
- asp.net控件验证
- hbm2ddl.auto 标签
- react-native-image-picker
- 白菜排毒.........................................