OpenCV人脸识别实验(二)——特征脸(fisherface)及其重构的源代码详解

来源:互联网 发布:联通大数据平台 编辑:程序博客网 时间:2024/06/07 07:06

1、算法介绍

线性鉴别分析在降维的同时考虑类别信息,由统计学家 Sir R. A. Fisher发明。为了找到一种特征组合方式,达到最大的类间离散度和最小的类内离散度。这个想法很简单:在低维表示下,相同的类应该紧紧的聚在一起,而不同的类别尽量距离越远。 后来,把鉴别分析引入到人脸识别问题中。

令x是一个来自c个类中的随机向量,

散度矩阵   S_{W}如下计算:

其中 20  是全部数据的均值,

22  是某个类的均值23

Fisher的分类算法可以看出一个投影矩阵  ,使得类的可分性最大:

一个解决这个普通特征值优化问题的方法被提出:

还有一个问题未解决, Sw的排列最多只有 (N-c), N 个样本和c个类别。在模式识别中,样本数据个数N的大小一般小于输入数据的维数。 使用PCA把数据投影到(N-c)维的子空间,然后再使用线性鉴别分析,因为Sw不是奇异矩阵了(可逆矩阵)。

然后优化问题可以写成:

投影矩阵W,可以把样本投影到(c-1)维的空间上,可以表示为


2、代码及实验结果

图片的读取方式依然采用CSV文件,文件名后紧跟一个标签。创建一个CSV文件,at1.txt文件的部分内容的截图如下,后边图片的标签以此类推:

具体代码如下:

#include <opencv2/core/core.hpp>#include <opencv2/highgui/highgui.hpp>#include <opencv2/imgproc/imgproc.hpp>#include <opencv2/face/facerec.hpp>#include <iostream>#include <fstream>     //文件操作的集合,以流的方式进行#include <sstream>     //此库定义了stringstream类,即:流的输入输出操作。//使用string对象代替字符数组,避免缓冲区溢出的危险using namespace cv;using namespace std;using namespace cv::face;//归一化图像矩阵函数static Mat norm_0_255(InputArray _src){Mat src = _src.getMat();   //将传入的类型为InputArray的参数转换为Mat的结构Mat dst;   //创建和返回一个归一化后的图像switch (src.channels()){case 1:normalize(_src, dst, 0, 255, NORM_MINMAX, CV_8UC1);break;case 3:normalize(_src, dst, 0, 255, NORM_MINMAX, CV_8UC3);break;default:src.copyTo(dst);break;}return dst;}//使用CSV文件读取图像和标签,主要使用stringstream和getline方法static void read_csv(const string& filename, vector<Mat>& images, vector<int>& labels, char separator = ';'){ifstream file(filename.c_str(), ifstream::in);   //以输入方式打开文件//c_str()函数将字符串转化为字符数组,返回指针if (!file){string error_massage = "No valid input file was given,please check the given filename!";CV_Error(CV_StsBadArg, error_massage);}string line, path, classlabel;while (getline(file, line))              //getline(字符数组,字符个数n,终止标志字符){stringstream liness(line);getline(liness, path, separator);    //遇到分号就结束getline(liness, classlabel);         //继续从分号后边开始,遇到换行结束if (!path.empty() && !classlabel.empty()){images.push_back(imread(path, 0));labels.push_back(atoi(classlabel.c_str()));   //atoi函数将字符串转换为整数值}}}int main(int argc, const char* argv[]){//[1] 检测合法的命令,显示用法//如果没有参数输入,则退出//if (argc < 2)//{//cout << "usage:" << argv[0] << "<csv.ext> <output_folder>" << endl;//exit(1);//}string output_folder;output_folder = string("D:\\Program Files\\opencv3.0\\opencv\\sources\\data\\FaceData\\result21");//[2] 读取CSV文件路径string fn_csv = string("D:\\Program Files\\opencv3.0\\opencv\\sources\\data\\at1.txt");//两个容器来存放图像数据和对应的标签vector<Mat> images;vector<int> labels;//读取数据,如果文件不合法就会出错。输入的文件名已经有了try{read_csv(fn_csv, images, labels);}catch (Exception& e){cerr << "Error opening file" << fn_csv << ".Reason:" << e.msg << endl;exit(1);}//没有读取到足够多的图片,也需要退出if (images.size() <= 1){string error_message = "This demo need at least 2 images,please add more images to your data set!";CV_Error(CV_StsError, error_message);}//[3] 得到第一张图片的高度,在下面对图像变形得到他们原始大小时需要int height = images[0].rows;//[4]下面代码仅从数据集中移除最后一张图片,用于做测试,需要根据自己的需要进行修改Mat testSample = images[images.size() - 1];int testLabel = labels[labels.size() - 1];images.pop_back();    //删除最后一张图片labels.pop_back();    //删除最后一个标签//[5] 创建一个特征脸模型用于人脸识别//通过CSV文件读取的图像和标签训练它//如果想保留10个fisherfaces,使用如下代码  cv::createFisherFaceRecognizer(10);//如果希望使用置信度阈值来初始化,使用代码   cv::createFisherFaceRecognizer(10, 123.0);//如果使用所有特征并使用一个阈值,使用代码   cv::createFisherFaceRecognizer(0, 123.0);Ptr<BasicFaceRecognizer> model = createFisherFaceRecognizer();model->train(images, labels);//[6] 对测试图像进行预测,predictedLabel是预测标签结果int predictedLabel = model->predict(testSample);// 还有一种调用方式,可以获取结果同时得到阈值://      int predictedLabel = -1;//      double confidence = 0.0;//      model->predict(testSample, predictedLabel, confidence);string result_message = format("Predicted class = %d / Actual class = %d.", predictedLabel, testLabel);cout << result_message << endl;//[7] 如何获取特征脸模型的特征值例子,使用getEigenValues方法Mat eigenvalues = model->getEigenValues();//[8] 获取特征向量Mat W = model->getEigenVectors();//[9] 得到训练图像的均值向量Mat mean = model->getMean();//[10] 显示或保存imshow("mean", norm_0_255(mean.reshape(1, images[0].rows)));imwrite(format("%s/mean.png", output_folder.c_str()), norm_0_255(mean.reshape(1, images[0].rows)));//[11] 显示或保存特征脸for (int i = 0; i < min(15, W.cols); i++)    //修改数值15可以修改特征脸的数目{string msg = format("Fishervalue #%d = %.5f", i, eigenvalues.at<double>(i));cout << msg << endl;//得到第i个特征向量Mat ev = W.col(i).clone();//把它变成原始大小,把数据显示归一化到0-255Mat grayscale = norm_0_255(ev.reshape(1, height));//使用Bone伪彩色来显示结果,为了更好的观察Mat cgrayscale;applyColorMap(grayscale, cgrayscale, COLORMAP_BONE);//显示或保存imshow(format("fisherface_%d", i), cgrayscale);imwrite(format("%s/fisherface_%d.png", output_folder.c_str(), i), norm_0_255(cgrayscale));}//[12] 预测过程中,显示或保存重建后的图像for (int num_components = min(W.cols, 0); num_components < min(W.cols,15); num_components++)   //修改值300可改变重构的图像的数目{//从模型中的特征向量截取一部分Mat evs = W.col(num_components);;Mat projection = LDA::subspaceProject(evs, mean, images[2].reshape(1, 1));   //投影样本到LDA子空间Mat reconstruction = LDA::subspaceReconstruct(evs, mean, projection);     //重构来自于LDA子空间的投影//归一化结果reconstruction = norm_0_255(reconstruction.reshape(1, images[0].rows));//[13] 若不是存放到文件夹中就显示他,使用暂定等待键盘输入imshow(format("fisherface_reconstruction_%d", num_components), reconstruction);imwrite(format("%s/fisherface_reconstruction_%d.png", output_folder.c_str(), num_components), reconstruction);}waitKey(0);return 0;}

为了更好显示图像效果,使用YaleA人脸数据库。每一个Fisherface都和原始图像有同样长度,它可以被显示成图像。下面显示了14张Fisherfaces图像。

Fisherfaces方法学习一个正对标签的转换矩阵,所依它不会如特征脸那样那么注重光照。鉴别分析是寻找可以区分人的面部特征。需要说明的是,Fisherfaces的性能也很依赖于输入数据。实际上,如果你对光照好的图片上学习

Fisherfaces,而想对不好的光照图片进行识别,那么他可能会找到错误的主元,因为在不好光照图片上,这些特征不优越。这似乎是符合逻辑的,因为这个方法没有机会去学习光照。

         Fisherfaces允许对投影图像进行重建,就行特征脸一样。但是由于我们仅仅使用这些特征来区分不同的类别,因此你无法期待对原图像有一个好的重建效果。对于Fisherfaces方法我们将把样本图像逐个投影到Fisherfaces上。


特征脸把每个图片看成一个个体重建时效果也有保证,而Fisherfaces把一个人的照片看成一个整体,那么重建时重建的效果则不是很好。重构的人脸效果图如下:

阅读全文
1 0
原创粉丝点击