K-means(K均值原型聚类)
来源:互联网 发布:美国人的零食知乎 编辑:程序博客网 时间:2024/05/19 18:46
K-means原理:
所谓物以类聚,人以群分。相似的人们总是相互吸引在一起。
数据也是一样。在kNN中,某个数据以与其他数据间的相似度来预测其标签,而K-means是一群无标记数据间的因为自我相似的聚拢。显而易见,K-means的目标为簇内密集而簇间稀疏。
简单来说就是首先先确定k个初始点作为质心,然后将数据集中的每一个点分配到一个距其最近的簇中,这一步完成后将每个簇的质心更新为该簇所有点的平均值,直至中心不再变化。
算法实现:(Python)
def distEclud(vecA, vecB):#计算两个向量的欧式距离 return sqrt(sum(power(vecA - vecB, 2)))def randCent(dataSet, k):#随机质心 n = shape(dataSet)[1] centroids = mat(zeros((k,n))) for j in range(n): minJ = min(dataSet[:,j]) rangeJ = float(max(dataSet[:,j]) - minJ) centroids[:,j] = mat(minJ + rangeJ * random.rand(k,1)) return centroidsdef kMeans(dataSet, k, distMeas=distEclud, createCent=randCent): m = shape(dataSet)[0] clusterAssment = mat(zeros((m,2)))#存储每个点的分配,即簇索引值和误差 centroids = createCent(dataSet, k) clusterChanged = True while clusterChanged: clusterChanged = False for i in range(m): minDist = inf; minIndex = -1 for j in range(k):#寻找最近质心 distJI = distMeas(centroids[j,:],dataSet[i,:]) if distJI < minDist: minDist = distJI; minIndex = j if clusterAssment[i,0] != minIndex: clusterChanged = True clusterAssment[i,:] = minIndex,minDist**2 print (centroids) for cent in range(k):#更新质心的位置 ptsInClust = dataSet[nonzero(clusterAssment[:,0].A==cent)[0]] centroids[cent,:] = mean(ptsInClust, axis=0) return centroids, clusterAssment
k-means算法简单、快速,效率高,当数据集是密集的、球状或团状的簇群,且簇与簇之间区别明显时,聚类效果很好。但是它也有不少的问题:
使用范围的约束
k-means,k-means,这个平均值(means)被定义的情况下才能使用。而且对有些分类属性的数据不适用。而且对非凸面形状的簇,或者大小差别很大的簇简直无解。
k是用户指派的?k的选择问题
由于k是用户预先定义的参数,那么如何选择k才是最佳的呢?一种度量聚类效果的指标是误差平方和(Sum of Squared Error,SSE),SSE越小表示数据点越接近它们的质心,聚类的效果相对来说也就最好。所以利用SEE的改进方法就是对生成的簇进行后处理,一是将最大的SSE值的簇分成两个(将这个簇的点过滤出后再进行k为2的k-means),而是合并最小的SSE簇。
或者是人工考虑“肘部法则”来选择,即画出不同k值下的代价函数图,这很像一个人的肘部,观察图形可知,当达到一个点时J下降的非常快,之后会很慢,由此来选择k。
但是当遇到高维度、海量的数据集时,人们往往很难准确地估计出K的大小,所以最好使用迭代自组织数据分析法(Iterative Self-Organizing Data Analysis Technique ,ISODATA)来判断。即当属于某个类别的样本数过少时把这个类别去除,当属于某个类别的样本数过多、分散程度较大时把这个类别分为两个子类别。
只能用欧式距离?度量方式的选择
除了根据实际情况进行选择外,还可以参照支持向量机中核函数的思想,将所有样本映射到另外一个特征空间中再进行聚类。
闵可夫斯基距离
欧几里得距离
曼哈顿距离
切比雪夫距离
马氏距离
余弦相似度
皮尔逊相关系数
汉明距离
杰卡德相似系数
编辑距离
DTW 距离
KL 散度
计算距离时间太多?距离度量的优化
elkan K-Means算法利用了两边之和大于等于第三边,以及两边之差小于第三边的三角形性质,来减少计算量,提高时间。
不抗干扰,被噪声扰动影响太大
初质心不同,结果不同?K-means对初值的敏感
K-means非常容易受初识质心的影响,质心的不同,聚类结果可能千差万别。所以为了更好的效果,可以采用二分k均值聚类,即每次都选择有最大误差的簇进行二分,直至k个簇全部创建成功。
算法实现:(Python)
def biKmeans(dataSet, k, distMeas=distEclud):#二分k均值聚类 m = shape(dataSet)[0] clusterAssment = mat(zeros((m,2))) centroid0 = mean(dataSet, axis=0).tolist()[0] centList =[centroid0] for j in range(m): clusterAssment[j,1] = distMeas(mat(centroid0), dataSet[j,:])**2 while (len(centList) < k): lowestSSE = inf for i in range(len(centList)):#遍历每一个簇 ptsInCurrCluster = dataSet[nonzero(clusterAssment[:,0].A==i)[0],:] centroidMat, splitClustAss = kMeans(ptsInCurrCluster, 2, distMeas) sseSplit = sum(splitClustAss[:,1])#计算划分后的两个簇的误差 sseNotSplit = sum(clusterAssment[nonzero(clusterAssment[:,0].A!=i)[0],1]) print ("sseSplit, and notSplit: ",sseSplit,sseNotSplit) if (sseSplit + sseNotSplit) < lowestSSE:#误差之和作为本次划分的误差 bestCentToSplit = i bestNewCents = centroidMat bestClustAss = splitClustAss.copy() lowestSSE = sseSplit + sseNotSplit bestClustAss[nonzero(bestClustAss[:,0].A == 1)[0],0] = len(centList) #更新簇的分配结果。将刚刚划分完的0,1编号的结果簇修改编号,由两个数组过滤器来完成 bestClustAss[nonzero(bestClustAss[:,0].A == 0)[0],0] = bestCentToSplit print ('the bestCentToSplit is: ',bestCentToSplit) print ('the len of bestClustAss is: ', len(bestClustAss)) centList[bestCentToSplit] = bestNewCents[0,:].tolist()[0]#新的质心增加到centroids中 centList.append(bestNewCents[1,:].tolist()[0]) clusterAssment[nonzero(clusterAssment[:,0].A == bestCentToSplit)[0],:]= bestClustAss return mat(centList), clusterAssment
原型聚类
K-means之所以为原型聚类就在于它是通过先对原型进行初始化,然后对原型进行不断的迭代求解。当然了,不同的原型刻画方法,求解方式,将产生不同的算法。对K-means来说,初始的k个样本便是它的原型向量。与K-means一样,学习向量量化(Learning Vector Quantization,LVQ)也是尝试找到一组原型向量来刻画该原型,但LVQ的样本是带有标记的,即通过监督信息来辅助聚类。如果你了解一些神经网络,那么LVQ对于你应该很熟悉,它的核心其实就是“适者生存”的竞争策略,只对竞争获胜的神经元进行参数调整,是自组织映射(Self-organizing Maps,SOM)基于监督信息的一种变体。
而它用于聚类也是如此。大致算法思想是从样本集中随机选取一个有标记的样本(x,y),找到最小的那个原型向量p,判断样本的标记y与原型向量的标记是否一致。若一致则更新为p’ = p + a*(x-p),否则更新为p’ = p - a*(x - p)。 直观上看标记相同则靠拢,不同则远离。
K-means应用:
KMeans参数说明:
KMeans(algorithm=’auto’, copy_x=True, init=’k-means++’, max_iter=300,n_clusters=3, n_init=10, n_jobs=1, precompute_distances=’auto’,random_state=None, tol=0.0001, verbose=0)
algorithm:"full"就是传统的K-Means算法, “elkan”是采用elkan K-Means算法。copy_x=True:对是否修改数据的一个标记,如果True,即复制了就不会修改数据。init='k-means++':初始值选择方式max_iter=300:最大迭代n_clusters=3:k的值n_init=10:初始化质心运行次数n_jobs=1:并行工作数precompute_distances='auto':是否预计算距离random_state=None:随机状态条件tol=0.0001: 容忍度,即kmeans运行准则收敛的条件verbose=0:冗长模式
MiniBatchKMeans(batch_size=45, compute_labels=True, init=’k-means++’, init_size=None, max_iter=100, max_no_improvement=10, n_clusters=3,n_init=10, random_state=None, reassignment_ratio=0.01, tol=0.0,verbose=0)
batch_size=45:采样集大小compute_labels=True:计算标签init='k-means++':初始值选择方式init_size=None:质心选择的样本数max_iter=100:最大迭代max_no_improvement=10:连续性的无改善聚类效果的最大阈值n_clusters=3:k的值n_init=10:初始化质心运行次数random_state=None:随机状态条件reassignment_ratio=0.01:某个类别质心被重新赋值的最大次数比例tol=0.0:容忍度,即kmeans运行准则收敛的条件verbose=0:冗长模式
比较这两种模式的聚类表现:
import timeimport numpy as npimport matplotlib.pyplot as pltfrom sklearn.cluster import MiniBatchKMeans, KMeansfrom sklearn.metrics.pairwise import pairwise_distances_argminfrom sklearn.datasets.samples_generator import make_blobs#s生成数据np.random.seed(0)batch_size = 45centers = [[1, 1], [-1, -1], [1, -1]]n_clusters = len(centers)X, labels_true = make_blobs(n_samples=3000, centers=centers, cluster_std=0.7)#Meansk_means = KMeans(init='k-means++', n_clusters=3, n_init=10)t0 = time.time()k_means.fit(X)t_batch = time.time() - t0#MiniBatchKMeansmbk = MiniBatchKMeans(init='k-means++', n_clusters=3, batch_size=batch_size, n_init=10, max_no_improvement=10, verbose=0)t0 = time.time()mbk.fit(X)t_mini_batch = time.time() - t0fig=plt.figure(figsize=(8, 3))fig.subplots_adjust(left=0.02, right=0.98, bottom=0.05, top=0.9)colors = ['#4EACC5', '#FF9C34', '#4E9A06']k_means_cluster_centers = np.sort(k_means.cluster_centers_, axis=0)mbk_means_cluster_centers = np.sort(mbk.cluster_centers_, axis=0)k_means_labels = pairwise_distances_argmin(X, k_means_cluster_centers)mbk_means_labels = pairwise_distances_argmin(X, mbk_means_cluster_centers)order = pairwise_distances_argmin(k_means_cluster_centers, mbk_means_cluster_centers)# KMeansax = fig.add_subplot(1, 3, 1)for k, col in zip(range(n_clusters), colors): my_members = k_means_labels == k cluster_center = k_means_cluster_centers[k] ax.plot(X[my_members, 0], X[my_members, 1], 'w', markerfacecolor=col, marker='.') ax.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col, markeredgecolor='k', markersize=6)ax.set_title('KMeans')ax.set_xticks(())ax.set_yticks(())plt.text(-3.5, 1.8, 'train time: %.2fs\ninertia: %f' % ( t_batch, k_means.inertia_))# MiniBatchKMeansax = fig.add_subplot(1, 3, 2)for k, col in zip(range(n_clusters), colors): my_members = mbk_means_labels == order[k] cluster_center = mbk_means_cluster_centers[order[k]] ax.plot(X[my_members, 0], X[my_members, 1], 'w', markerfacecolor=col, marker='.') ax.plot(cluster_center[0], cluster_center[1], 'o', markerfacecolor=col, markeredgecolor='k', markersize=6)ax.set_title('MiniBatchKMeans')ax.set_xticks(())ax.set_yticks(())plt.text(-3.5, 1.8, 'train time: %.2fs\ninertia: %f' % (t_mini_batch, mbk.inertia_))#两者的不同聚类点different = (mbk_means_labels == 4)ax = fig.add_subplot(1, 3, 3)for k in range(n_clusters): different += ((k_means_labels == k) != (mbk_means_labels == order[k]))identic = np.logical_not(different)ax.plot(X[identic, 0], X[identic, 1], 'w', markerfacecolor='#bbbbbb', marker='.')ax.plot(X[different, 0], X[different, 1], 'w', markerfacecolor='m', marker='.')ax.set_title('Difference')ax.set_xticks(())ax.set_yticks(())plt.show()
可以发现两者聚类结果只有少量的不同。
SPSS应用
详细介绍就不多说了,运行后打开节点可以看到很多的细节。
和Weka一样,画好图后应用就可以得到结果:
主要参考:
Peter Harrington《Machine learning in action》
- K-means(K均值原型聚类)
- k均值聚类(k-means)
- K均值聚类(K-means)
- k均值聚类(k-means)
- k均值聚类(K-means)
- k均值聚类(K-means)
- k均值聚类(K-means)
- k均值聚类(K-means)
- k均值聚类(K-means)
- k均值聚类(K-means)
- K-means clustering (K-均值聚类)
- K均值(K-means)聚类算法
- K-均值聚类算法(K-means)
- K均值聚类算法(K-Means)
- 聚类算法:k均值(k-means)
- k均值聚类(K-means)
- K-means(K-均值)聚类算法
- K均值聚类算法(K-Means Clustering Algorithm)
- 秋招历程
- HDU 5583 Kingdom of Black and White 暴力
- C指针在不同需求中的应用
- POJ 1350:Cabric Number Problem
- 字符串比较
- K-means(K均值原型聚类)
- Linux C语言编程环境之动态库和静态库
- 51nod 1482 部落信号[单调栈]
- java动态代理(JDK和cglib)
- eclise关闭自动更新
- .Net Dispose 记忆体释放
- linux mysql设置
- 目标程序运行时的存储组织
- 异或运算的研究