二分K均值算法原理及Spark MLlib调用实例(Scala/Java/Python)

来源:互联网 发布:淘宝超级会员要买多少 编辑:程序博客网 时间:2024/06/07 10:48

二分K均值算法

算法介绍:

二分K均值算法是一种层次聚类算法,使用自顶向下的逼近:所有的观察值开始是一个簇,递归地向下一个层级分裂。分裂依据为选择能最大程度降低聚类代价函数(也就是误差平方和)的簇划分为两个簇。以此进行下去,直到簇的数目等于用户给定的数目k为止。二分K均值常常比传统K均值算法有更快的计算速度,但产生的簇群与传统K均值算法往往也是不同的。

BisectingKMeans是一个Estimator,在基础模型上训练得到BisectingKMeansModel。

参数:

featuresCol:

类型:字符串型。

含义:特征列名。

k:

类型:整数型。

含义:聚类簇数。

maxIter:

类型:整数型。

含义:迭代次数(>=0)。

predictionCol:

类型:字符串型。

含义:预测结果列名。

seed:

类型:长整型。

含义:随机种子。

调用示例:

Scala:

import org.apache.spark.ml.clustering.BisectingKMeans// Loads data.val dataset = spark.read.format("libsvm").load("data/mllib/sample_kmeans_data.txt")// Trains a bisecting k-means model.val bkm = new BisectingKMeans().setK(2).setSeed(1)val model = bkm.fit(dataset)// Evaluate clustering.val cost = model.computeCost(dataset)println(s"Within Set Sum of Squared Errors = $cost")// Shows the result.println("Cluster Centers: ")val centers = model.clusterCenterscenters.foreach(println)
Java:

import org.apache.spark.ml.clustering.BisectingKMeans;import org.apache.spark.ml.clustering.BisectingKMeansModel;import org.apache.spark.ml.linalg.Vector;import org.apache.spark.sql.Dataset;import org.apache.spark.sql.Row;// Loads data.Dataset<Row> dataset = spark.read().format("libsvm").load("data/mllib/sample_kmeans_data.txt");// Trains a bisecting k-means model.BisectingKMeans bkm = new BisectingKMeans().setK(2).setSeed(1);BisectingKMeansModel model = bkm.fit(dataset);// Evaluate clustering.double cost = model.computeCost(dataset);System.out.println("Within Set Sum of Squared Errors = " + cost);// Shows the result.System.out.println("Cluster Centers: ");Vector[] centers = model.clusterCenters();for (Vector center : centers) {  System.out.println(center);}
Python:

from pyspark.ml.clustering import BisectingKMeans# Loads data.dataset = spark.read.format("libsvm").load("data/mllib/sample_kmeans_data.txt")# Trains a bisecting k-means model.bkm = BisectingKMeans().setK(2).setSeed(1)model = bkm.fit(dataset)# Evaluate clustering.cost = model.computeCost(dataset)print("Within Set Sum of Squared Errors = " + str(cost))# Shows the result.print("Cluster Centers: ")centers = model.clusterCenters()for center in centers:    print(center)


 

0 0