k均值聚类+基于核的k均值聚类+C++实现
来源:互联网 发布:java interface 程序 编辑:程序博客网 时间:2024/06/11 05:10
0.序言
聚类算法是机器学习领域非常简单同时也非常经典的算法,聚类所处理的对象是未标记的样本,所以属于无监督学习这一范畴。聚类算法从原理上大致课划分为3类:(1)基于原型的聚类(2)基于密度的聚类(3)基于层次的聚类,而在每一类下面又有好多算法,今天我要介绍的就是k均值聚类算法,它属于”基于原型聚类“这一类别。
( 先提个问题:有没有发现,聚类这块的算法非常之多,比机器学习的其他分支算法明显多太多了,原因?)
首先要来了解的一个概念就是聚类,下面来谈谈聚类和分类的区别,聚类简单地说就是把相似的东西分到一组,同 Classification (分类)不同,对于一个 classifier ,通常需要你告诉它“这个东西被分为某某类”这样一些例子,理想情况下,一个 classifier 会从它得到的训练集中进行“学习”,从而具备对未知数据进行分类的能力,这种提供训练数据的过程通常叫做 supervised learning (监督学习),而在聚类的时候,我们并不关心某一类是什么,我们需要实现的目标只是把相似的东西聚到一起,因此,一个聚类算法通常只需要知道如何计算相似 度就可以开始工作了,因此 clustering 通常并不需要使用训练数据进行学习,这在 Machine Learning 中被称作 unsupervised learning (无监督学习)。
1. 基础知识介绍
1.1距离度量方式
欧几里得距离:
其意义就是两个元素在欧氏空间中的集合距离,因为其直观易懂且可解释性强,被广泛用于标识两个标量元素的相异度,
表达公式:曼哈对距离:
两个n维向量a(x11,x12,…,x1n)与b(x21,x22,…,x2n)间的曼哈顿距离可以表示为:闵可夫斯基距离:
切比雪夫距离:
二个点之间的距离定义为其各座标数值差的最大值。以(x1,y1)和(x2,y2)二点为例,其切比雪夫距离为:
(今天咱们要讲的k-means cluster就是采用欧氏距离来计算样本到聚类中心之间的距离)
1.2划分相关的概念
- 划分的概念最早是在“集合”中出现的,划分的准确定义如下:
集合A的幂集P(A)的一个子集π={A1,A2,…,Ak}满足:
(1)π中没有空集
(2)A1,A2,…,Ak两两不相交
(3)所有集合的并集A1∪A2∪…∪Ak=A
称π是集合A的一个划分。 实际上,在聚类中,如果我们将所有的聚类样本看成是一个集合的话,聚类的结果实际上就相当于对样本进行了一个划分(请注意:一个划分,说明按照不同的划分标准就有不同的划分结果),划分后的每一类称为一个“簇”。
**下面放一张图大家感受一下,将样本划分成了3个簇:
(观察仔细的同学会发现每一个每个簇中间位置会有一个“+”,那个实际上就是聚类中心,用+来标记,聚类中心可以理解成所谓的“原型”)
2聚类算法讲解
2.1 所要求解的问题
- 假设我们提取到原始数据的集合为(x1, x2, …, xn),并且每个xi为d维的向量,K-means聚类的目的就是,在给定分类组数k(k ≤ n)值的条件下,将原始数据分成k类
S = {S1, S2, …, Sk},在数值模型上,即对以下表达式求最小值:
其中, - 可以看出来这是一个优化问题,咱们的目标就是求得一个划分(确定最佳k值,然后找出一个最优划分)使得J最小(J越小表明簇内样本越近,簇间样本距离越远),理论证明这是一个NP难的问题,怎么办呢?
破解思路:
采用贪心策略,大致策略如下图所示:
(该算法简单,但是他背后的东西绝不简单,有兴趣的可以深入了解NP难问题以及算法的设计过程)
2.2 k均值聚类算法原理
算法描述
step1、为中心向量c1, c2, …, ck初始化k个种子 (初始化聚类中心)
step2、划分样本:
(1)将样本分配给距离其最近的中心向量
(2)由这些样本构造不相交( non-overlapping )的聚类
step3:更新中心向量:
用属于各个簇的所有样本均值作为新的中心向量。
step4:转step2,直至算法收敛(满足停止条件)。算法步骤精确描述
算 法 k-means算法
输入:簇的数目k和包含n个对象的数据库。
输出:k个簇,使平方误差准则最小。
算法步骤:
1.为每个聚类确定一个初始聚类中心,这样就有K 个初始聚类中心。
2.将样本集中的样本按照最小距离原则分配到最邻近聚类
3.使用每个聚类中的样本均值作为新的聚类中心。
4.重复步骤2.3直到聚类中心不再变化。
5.结束,得到K个聚类簇。
再附上一张周志华老师的《机器学习》这本书上的算法图:
很重要:有没有发现,聚类的过程实际上就是不断更新中心向量(所谓的原型)的过程,可以这么说,在距离度量方式确定情况下,你给我一组均值向量,我必然能给你一个划分(实际上这二者是一一对应的)
3 对算法的思考
3.1 总结
K均值聚类:
将样本划分为K个不同的簇,且每个簇的中心(均值向量)采用簇中所含样本的均值计算而成。算法本质:
随机选取一组样本初始化原型,采用贪心策略,通过迭代优化来更新原型,(原型 ==簇划分)初始均值向量(质心)的选取
选取不同的质心,往往会得到不同的结果。
建议:尽量不要处于样本的边界,即质心每一维度上的值要落在原始数据集每一维度的最小与最大值之间。迭代终止条件:
所有的均值向量(实值向量)均未更新—->设置一个最大循环次数或最小调整幅度阈值。K值的选取
k值表示要划分簇的数目作为输入参数,由用户指定,
建议:(1)通过启发式算法用于自动确定k值
(2)基于不同K值多次运行之后选取最佳结果(常用)
3.2 一点思考
“相似度”度量方式:
(1)度量距离:满足:非负性,对称性,同一性,三角不等式性的函数。
如:欧氏距离、曼哈顿距离、切比雪夫距离
(2)非距离度量:不满足三角不等式性
—>对于具体的问题,应当基于数据样本来确定合适的的距离度量方式一个默认的假设:每个样本只属于一个簇
在实际生活中,样本之间不是孤立的,可能以不同程度属于不同类,这时候可以应用“软聚类”的概念,有兴趣的可以深入了解。
场景:朋友圈网络 —->软聚类算法:允许每个样本以不同程度属于多个
4实验结果
4.1结果
聚类簇数k=2下,实验重复3次的效果如下图:
(第4张图对应的是第1张图迭代过程中的均值变化示意图)聚类簇数k=3下,实验重复3次的效果如下图:
(第4张图对应的是第2张图迭代过程中的均值变化示意图)聚类簇数k=4下,实验重复3次的效果如下图:
(第4张图对应的是第3张图迭代过程中的均值变化示意图)分析:
=>可以看出来,在指定k的条件下,重复实验最终结果也可能有所不同,迭代次数也会有所不同,原因就在于选取初始的中心向量时随机的(如果一开始就比较接近中心向量,当然迭代次数更少)
=>我们自己一眼就可以看出最佳聚类簇数k=4,经过多轮实验,实验结果也表明我们的判断时正确的,有没有发现:聚类实际上刻画的是数据样本的分布特征,而由于咱们采用的欧式距离来计算距离,因此对于样本簇呈椭圆分布时效果最好,但是对于数据样本分布比较特殊的结构,聚类效果会非常差,比如像下面这幅图:4.2拓展
这块简单介绍一下基于核的k均值聚类(kernel k means cluster):
该算法的主要思想是:首先将原空间中待聚类的样本经过 一个非线性映射,映射到一个高维的核空间中(突出各类样本之间的特征差异),然后在这个核空间中进行 均值聚类。同时还将一种新的核 函数应用于核 k均值聚类中以提高算法的速度。
可以很清晰的看出二者的差别,如下图所示:
另外,要注意以下二者细节的区别:
分析:可以这么说,kernel k means cluster的核心就是选择核函数,它将决定最终的聚类效果。
- 从另外一个角度来说,kernel k menas cluster相比与k means cluster 实际上就是选择了一种新的距离度量方式。
采用kernel k means cluster对上一张图的聚类效果如下:
(k means cluster是聚不出这样的效果的)
5 C++实现
(仅列出k means cluster的实现代码,所有实验数据都是从文件进行存取的)
项目如下图所示:
其中 testSet.txt用于存放待聚类的样本,res.txt用来存放聚类结果,resCentroids.txt用来存放中心向量。
> viewCode#include<iostream> #include<vector> #include<map> #include<cstdlib> #include<algorithm> #include<fstream> #include<stdio.h> #include<string.h> #include<string> #include<time.h> //for srand #include<limits.h> //for INT_MIN INT_MAX using namespace std;//definition template<typename T>class KMEANS{private: vector< vector<T> > dataSet;//the data set vector< T > mmin, mmax; int colLen, rowLen;//colLen:the dimension of vector;rowLen:the number of vectors int k; vector< vector<T> > centroids; //k个簇的中心点(与样本同维度) vector< vector< vector<T>>> totalCentroids;//记录所有迭代的簇的中心点 typedef struct MinMax { T Min; T Max; MinMax(T min, T max) :Min(min), Max(max) {} }tMinMax; typedef struct Node { int minIndex; //所属簇的索引值 double minDist;//距簇中心的欧氏距离 Node(int idx, double dist) :minIndex(idx), minDist(dist) {} }tNode; //每个点所属的簇类别以及距离值 vector<tNode> clusterAssment; //每个向量所属的簇类别 /*split line into numbers*/ void split(char *buffer, vector<T> &vec); //将一行切分为多个数值放入容器中 tMinMax getMinMax(int idx); void setCentroids(tMinMax &tminmax, int idx); void initClusterAssment(); double distEclud(vector<T> &v1, vector<T> &v2); //计算欧式距离public: KMEANS(int k); void loadDataSet(char *filename); //读取文件加载数据并将其写入dataSet,初始化样本的个数rowLen以及样本维度colLen void randCent(); //随机生成初始均值向量 void print(); //将结果写入res.txt文件,每一行分别为:样本 所属类别 void printCentroids(); void kmeans(); //k均值聚类};//realizationtemplate<typename T>void KMEANS<T>::initClusterAssment(){ tNode node(-1, -1); //分别代表簇的索引值和存储误差SSE for (int i = 0; i<rowLen; i++) { clusterAssment.push_back(node); }}template<typename T>void KMEANS<T>::kmeans(){ int count = 0; initClusterAssment(); //初始化ClusterAssement,每个元素为一个结构体, bool clusterChanged = true; //the termination condition can also be the loops less than some number such as 1000 while (clusterChanged) { count++; clusterChanged = false; //step one : find the nearest centroid of each point cout <<"\nthe "<<count<<" iterator:\n"<< "\tfind the nearest centroid of each point :" << endl; for (int i = 0; i<rowLen; i++) { int minIndex = -1; double minDist = INT_MAX; for (int j = 0; j<k; j++) { double distJI = distEclud(centroids[j], dataSet[i]); if (distJI < minDist) { minDist = distJI;// minIndex = j;//簇类别标识 } } if (clusterAssment[i].minIndex != minIndex) { clusterChanged = true; clusterAssment[i].minIndex = minIndex; clusterAssment[i].minDist = minDist; } } //step two : update the centroids cout << "\tupdate the centroids:" << endl; for (int cent = 0; cent<k; cent++) { vector<T> vec(colLen, 0); int cnt = 0; for (int i = 0; i<rowLen; i++) { if (clusterAssment[i].minIndex == cent) { ++cnt; //sum of two vectors for (int j = 0; j<colLen; j++) { vec[j] += dataSet[i].at(j); } } } cout << "("; //mean of the vector and update the centroids[cent] ,simultaneously ouput for (int i = 0; i<colLen; i++) { if (cnt != 0) vec[i] /= cnt; centroids[cent].at(i) = vec[i]; // cout << vec[i]; if (i != colLen) cout << ","; } cout << ")\t"; }//for totalCentroids.push_back(centroids);//accumulated centroids print(); printCentroids(); }//while #if 0 typename vector<tNode> ::iterator it = clusterAssment.begin(); while (it != clusterAssment.end()) { cout << (*it).minIndex << "\t" << (*it).minDist << endl; it++; }#endif }template<typename T>KMEANS<T>::KMEANS(int k){ this->k = k;}template<typename T>void KMEANS<T>::setCentroids(tMinMax &tminmax, int idx){ T rangeIdx = tminmax.Max - tminmax.Min; for (int i = 0; i<k; i++) { /* generate float data between 0 and 1 */ centroids[i].at(idx) = tminmax.Min + rangeIdx * (rand() / (double)RAND_MAX); }}//get the min and max value of the idx column template<typename T>typename KMEANS<T>::tMinMax KMEANS<T>::getMinMax(int idx){ T min, max; dataSet[0].at(idx) > dataSet[1].at(idx) ? (max = dataSet[0].at(idx), min = dataSet[1].at(idx)) : (max = dataSet[1].at(idx), min = dataSet[0].at(idx)); for (int i = 2; i<rowLen; i++) { if (dataSet[i].at(idx) < min) min = dataSet[i].at(idx); else if (dataSet[i].at(idx) > max) max = dataSet[i].at(idx); else continue; } tMinMax tminmax(min, max); return tminmax;}template<typename T>void KMEANS<T>::randCent(){ //init centroids vector<T> vec(colLen, 0); for (int i = 0; i<k; i++) { centroids.push_back(vec); } //set values by column srand(time(NULL)); for (int j = 0; j<colLen; j++) { tMinMax tminmax = getMinMax(j); setCentroids(tminmax, j); }}template<typename T>double KMEANS<T>::distEclud(vector<T> &v1, vector<T> &v2){ T sum = 0; int size = v1.size(); for (int i = 0; i<size; i++) { sum += (v1[i] - v2[i])*(v1[i] - v2[i]); } return sum;}template<typename T>void KMEANS<T>::split(char *buffer, vector<T> &vec){ char *p = strtok(buffer, "\t"); //, int c = 0; int cc = 1; while (p != NULL) { vec.push_back(atof(p)); //只读取数据后两列 //if (c < 2) // vec.pop_back(); //只读取数据前两列 if (cc == 2) break; c++; cc++; p = strtok(NULL, " \n"); //, } //数据格式处理细节 //vec.pop_back(); //数据项之后带有标记}template<typename T>void KMEANS<T>::print(){ ofstream fout; fout.open("res.txt"); if (!fout) { cout << "file res.txt open failed" << endl; exit(0); }#if 0 typename vector< vector<T> > ::iterator it = centroids.begin(); while (it != centroids.end()) { typename vector<T> ::iterator it2 = (*it).begin(); while (it2 != (*it).end()) { //fout<<*it2<<"\t"; cout << *it2 << "\t"; it2++; } //fout<<endl; cout << endl; it++; }#endif typename vector< vector<T> > ::iterator it = dataSet.begin(); typename vector< tNode > ::iterator itt = clusterAssment.begin(); for (int i = 0; i<rowLen; i++) { typename vector<T> ::iterator it2 = (*it).begin(); while (it2 != (*it).end()) { fout << *it2 << ","; it2++; } fout << (*itt).minIndex << endl; itt++; it++; }}template <typename T>void KMEANS<T>::printCentroids(){ ofstream fout; fout.open("resCentroids.txt"); if (!fout) { cout << "file resCentroids.txt open failed" << endl; exit(0); } typename vector< vector< vector<T> > > ::iterator it = totalCentroids.begin(); while (it != totalCentroids.end()) { typename vector< vector<T>> ::iterator itt = (*it).begin(); while (itt != (*it).end()) { typename vector<T> ::iterator ittt = (*itt).begin(); while (ittt != (*itt).end()) { fout << (*ittt) << ","; ittt++; } itt++; } it++; fout << "\n"; }}template<typename T>void KMEANS<T>::loadDataSet(char *filename){ FILE *pFile; pFile = fopen(filename, "r"); //pFile = fopen("D:\\testSet.txt", "r"); if (!pFile) { printf("open file %s failed...\n", filename); exit(0); } //init dataSet char *buffer = new char[300]; //堆空间必须足够大,能够容纳一行的内容,difficult-doughnut.txt每一行数据占约300个字符 vector<T> temp; while (fgets(buffer, 300, pFile)) { temp.clear(); split(buffer, temp); dataSet.push_back(temp); } //init colLen,rowLen colLen = dataSet[0].size(); rowLen = dataSet.size();}int main(int argc, char *argv[]){ /* 以命令行参数运行该程序:项目 -属性-配置属性-调试--命令行参数 共三个参数,分别为:项目名称(默认)、 测试数据文件、 K值 注意:所有文件默认放在项目所在目录,若要放在其他地方,则需要详细指定文件的路径,否则会出现“无法读取内存”的错误。 */ FILE * p ; p = fopen("testSet.txt","r"); //p = fopen("D:\\testSet.txt", "r"); if (argc != 3) { cout << "Usage : ./a.out filename k" << endl; exit(0); } char *filename = argv[1]; int k = atoi(argv[2]); KMEANS<double> kms(k); //filename = "D:\\" + filename; kms.loadDataSet(filename); //filename = "testSet.txt"; //kms.loadDataSet(filename); cout << "the dataSet would be devided into " << k << " clusters"; kms.randCent(); //randomly select init .. vector kms.kmeans(); system("pause"); return 0;}
- k均值聚类+基于核的k均值聚类+C++实现
- [C#]K均值聚类
- K-均值聚类
- K均值聚类
- k均值聚类
- k均值聚类
- K均值聚类
- K均值聚类
- k均值聚类
- K-均值聚类
- K-均值聚类
- K均值聚类
- K均值聚类
- k均值聚类
- k-均值聚类
- k均值聚类
- k-均值聚类算法c语言版
- k-均值聚类算法c语言版
- 前端学习第一天
- fabric role 基本函数 组合函数 应用
- 百度百科c语言math.h
- git init 出现的问题
- OC 运行时语言踩过的坑
- k均值聚类+基于核的k均值聚类+C++实现
- 拉推模式总结
- 自定义View
- java 编程思想--初始化与清理
- Linux桌面版安装及开发环境配置
- 统计一个文件的行数
- 思路题(蚂蚁,uva 10881)
- Codeforces 91A-Newspaper Headline
- 如何求解问题-现代启发式方法_总结