目标检测的图像特征提取之(一)HOG特征

来源:互联网 发布:windows文件夹 编辑:程序博客网 时间:2024/06/05 10:05


1HOG特征:

       方向梯度直方图(Histogram of Oriented Gradient, HOG)特征是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子。它通过计算和统计图像局部区域的梯度方向直方图来构成特征。Hog特征结合SVM分类器已经被广泛应用于图像识别中,尤其在行人检测中获得了极大的成功。需要提醒的是,HOG+SVM进行行人检测的方法是法国研究人员Dalal2005CVPR上提出的,而如今虽然有很多行人检测算法不断提出,但基本都是以HOG+SVM的思路为主。

1)主要思想:

       在一副图像中,局部目标的表象和形状(appearance and shape)能够被梯度或边缘的方向密度分布很好地描述。(本质:梯度的统计信息,而梯度主要存在于边缘的地方)。

2)具体的实现方法是:

       首先将图像分成小的连通区域,我们把它叫细胞单元。然后采集细胞单元中各像素点的梯度的或边缘的方向直方图。最后把这些直方图组合起来就可以构成特征描述器。

3)提高性能:

       把这些局部直方图在图像的更大的范围内(我们把它叫区间或block)进行对比度归一化(contrast-normalized),所采用的方法是:先计算各直方图在这个区间(block)中的密度,然后根据这个密度对区间中的各个细胞单元做归一化。通过这个归一化后,能对光照变化和阴影获得更好的效果。

4)优点:

       与其他的特征描述方法相比,HOG有很多优点。首先,由于HOG是在图像的局部方格单元上操作,所以它对图像几何的和光学的形变都能保持很好的不变性,这两种形变只会出现在更大的空间领域上。其次,在粗的空域抽样、精细的方向抽样以及较强的局部光学归一化等条件下,只要行人大体上能够保持直立的姿势,可以容许行人有一些细微的肢体动作,这些细微的动作可以被忽略而不影响检测效果。因此HOG特征是特别适合于做图像中的人体检测的。

 

2HOG特征提取算法的实现过程:

大概过程:

HOG特征提取方法就是将一个image(你要检测的目标或者扫描窗口):

1)灰度化(将图像看做一个x,y,z(灰度)的三维图像);

2)采用Gamma校正法对输入图像进行颜色空间的标准化(归一化);目的是调节图像的对比度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰;

3)计算图像每个像素的梯度(包括大小和方向);主要是为了捕获轮廓信息,同时进一步弱化光照的干扰。

4)将图像划分成小cells(例如6*6像素/cell);

5)统计每个cell的梯度直方图(不同梯度的个数),即可形成每个celldescriptor

6)将每几个cell组成一个block(例如3*3cell/block),一个block内所有cell的特征descriptor串联起来便得到该blockHOG特征descriptor

7)将图像image内的所有blockHOG特征descriptor串联起来就可以得到该image(你要检测的目标)的HOG特征descriptor了。这个就是最终的可供分类使用的特征向量了。

 

 

具体每一步的详细过程如下:

1)标准化gamma空间和颜色空间

     为了减少光照因素的影响,首先需要将整个图像进行规范化(归一化)。在图像的纹理强度中,局部的表层曝光贡献的比重较大,所以,这种压缩处理能够有效地降低图像局部的阴影和光照变化。因为颜色信息作用不大,通常先转化为灰度图;

     Gamma压缩公式:

     比如可以取Gamma=1/2

 

2)计算图像梯度

        计算图像横坐标和纵坐标方向的梯度,并据此计算每个像素位置的梯度方向值;求导操作不仅能够捕获轮廓,人影和一些纹理信息,还能进一步弱化光照的影响。

图像中像素点(x,y)的梯度为:

       最常用的方法是:首先用[-1,0,1]梯度算子对原图像做卷积运算,得到x方向(水平方向,以向右为正方向)的梯度分量gradscalx,然后用[1,0,-1]T梯度算子对原图像做卷积运算,得到y方向(竖直方向,以向上为正方向)的梯度分量gradscaly。然后再用以上公式计算该像素点的梯度大小和方向。

 

3)为每个细胞单元构建梯度方向直方图

        第三步的目的是为局部图像区域提供一个编码,同时能够保持对图像中人体对象的姿势和外观的弱敏感性。

我们将图像分成若干个“单元格cell”,例如每个cell6*6个像素。假设我们采用9bin的直方图来统计这6*6个像素的梯度信息。也就是将cell的梯度方向360度分成9个方向块,如图所示:例如:如果这个像素的梯度方向是20-40度,直方图第2bin的计数就加一,这样,对cell内每个像素用梯度方向在直方图中进行加权投影(映射到固定的角度范围),就可以得到这个cell的梯度方向直方图了,就是该cell对应的9维特征向量(因为有9bin)。

        像素梯度方向用到了,那么梯度大小呢?梯度大小就是作为投影的权值的。例如说:这个像素的梯度方向是20-40度,然后它的梯度大小是2(假设啊),那么直方图第2bin的计数就不是加一了,而是加二(假设啊)。

         细胞单元可以是矩形的(rectangular),也可以是星形的(radial)。

 

4)把细胞单元组合成大的块(block),块内归一化梯度直方图

       由于局部光照的变化以及前景-背景对比度的变化,使得梯度强度的变化范围非常大。这就需要对梯度强度做归一化。归一化能够进一步地对光照、阴影和边缘进行压缩。

        作者采取的办法是:把各个细胞单元组合成大的、空间上连通的区间(blocks)。这样,一个block内所有cell的特征向量串联起来便得到该blockHOG特征。这些区间是互有重叠的,这就意味着:每一个单元格的特征会以不同的结果多次出现在最后的特征向量中。我们将归一化之后的块描述符(向量)就称之为HOG描述符。

        区间有两个主要的几何形状——矩形区间(R-HOG)和环形区间(C-HOG)。R-HOG区间大体上是一些方形的格子,它可以有三个参数来表征:每个区间中细胞单元的数目、每个细胞单元中像素点的数目、每个细胞的直方图通道数目。

       例如:行人检测的最佳参数设置是:3×3细胞/区间、6×6像素/细胞、9个直方图通道。则一块的特征数为:3*3*9

 

5)收集HOG特征

      最后一步就是将检测窗口中所有重叠的块进行HOG特征的收集,并将它们结合成最终的特征向量供分类使用。

    

6)那么一个图像的HOG特征维数是多少呢?

        顺便做个总结:Dalal提出的Hog特征提取的过程:把样本图像分割为若干个像素的单元(cell),把梯度方向平均划分为9个区间(bin),在每个单元里面对所有像素的梯度方向在各个方向区间进行直方图统计,得到一个9维的特征向量,每相邻的4个单元构成一个块(block),把一个块内的特征向量联起来得到36维的特征向量,用块对样本图像进行扫描,扫描步长为一个单元。最后将所有块的特征串联起来,就得到了人体的特征。例如,对于64*128的图像而言,8*8的像素组成一个cell,每2*2cell组成一个块,因为每个cell9个特征,所以每个块内有4*9=36个特征,以8个像素为步长,那么,水平方向将有7个扫描窗口,垂直方向将有15个扫描窗口。也就是说,64*128的图片,总共有36*7*15=3780个特征。

HOG维数,16×16像素组成的block,8x8像素的cell

 

注释:

行人检测HOG+SVM

总体思路:
1、提取正负样本hog特征
2、投入svm分类器训练,得到model
3、由model生成检测子
4、利用检测子检测负样本,得到hardexample
5、提取hardexample的hog特征并结合第一步中的特征一起投入训练,得到最终检测子。

深入研究hog算法原理:
一、hog概述

Histograms of Oriented Gradients,顾名思义,方向梯度直方图,是目标的一种描述的方式,既是描述子。
二、hog提出
hog是05年一位nb的博士提出来的,论文链接 http://wenku.baidu.com/view/676f2351f01dc281e53af0b2.html
三、算法理解
        终于到10月了,终于可以松一口气了,整理一下hog的算法流程。
首先要有一个整体的认识,每一个目标都对应一个一维特征向量,这个向量一共有n维,这个n不是凭空瞎猜的,是有理有据,打个比方,为什么opencv自带的hog检测子是3781维的?这个问题在初期确实比较头疼,纠结了好长的时间,不过别着急,
我们先来看一下opencv里的HOGDescriptor这个结构的构造函数HOGDescriptor(Size winSize,Size blocksize,Size blockStride,Size cellSize,...(后面的参数在这里用不到)),去查一下opencv默认的参数我们可以看到,winSize(64,128),blockSize(16,16),blockStride(8,8),cellSize(8,8),很显然hog是将一个特征窗口win划分为很多的块block,在每一个块里又划分为很多的细胞单元cell(即胞元),hog特征向量既是把这些所有的cell对应的小特征串起来得到一个高维的特征向量,那么这个窗口对应的一维特征向量维数n就等于窗口中的块数 x 块中的胞元数  x 每一个胞元对应的特征向量数。
写到这里,我们计算一下3781如何得到的,窗口大小64x128,块大小16x16,块步长8x8,那么窗口中块的数目是((64-16)/8+1)*((128-16)/8+1) = 7*15 =105个块,块大小为16x16,胞元大小为8x8,那么一个块中的胞元cell数目是 (16/8)*(16/8) =4个胞元,到这里我们可以看到要求最后需要的维数n,只需要计算每一个胞元对应的向量,这个参数在哪呢?别急,我们把每一个胞元投影到9个bin(如何投影?这里卡了很长一段时间,后面会说),那么每一个胞元对应的向量就是9维,每个bin对应该9维向量的一个数,现在看一下是不是计算窗口维数的三个需求量都知道了,n = 窗口中的块数 x 块中的胞元数  x 每一个胞元对应的特征向量数,带入看一下n= 105x4x9 = 3780,这就是这个窗口对应的特征了。有人会说,为什么opencv里的getDefaultPeopleDetector()得到的是3781维呢?这是因为另外一维是一维偏移,(很崩溃是吧,我也崩溃很久。。。,下一段解释)。
我们利用hog+svm检测行人,最终的检测方法是最基本的线性判别函数,wx + b = 0,刚才所求的3780维向量其实就是w,而加了一维的b就形成了opencv默认的3781维检测算子,而检测分为train和test两部分,在train期间我们需要提取一些列训练样本的hog特征使用svm训练最终的目的是为了得到我们检测的w以及b,在test期间提取待检测目标的hog特征x,带入方程是不是就能进行判别了呢?
**************************************************************************************************
                                           华丽的分割线
写到这里,至少对hog的运作流程有了一个大概的认识,在网上能看到很多的hog计算方法,神马归一化,计算梯度,对每个胞元进行投影,千篇一律,对刚开始接触的人来说,看完好像懂了,但就是不知道怎么用,hog和svm如何配合,而且那些东西对我们的初期的学期完全没用,好处就是会用hog了,再回过头去看原理,才有收获,那些资料网上一堆,这里就不画蛇添足了。
另外值得一提的是在计算胞元特征的时候,需要向各个bin投影,这个投影里面大有文章,师兄毕业论文里就提到了,取名叫‘三维一次线性插值’,如果想深入了解hog的可以仔细琢磨去。
**************************************************************************************************
                                         继续华丽的分割
下面说一下libsvm和CvSVM的使用,我觉得libsvm更好用,不过cvsvm也是基于libsvm2.6(没记错的话)改写的,这两个的区别就是libsvm训练得到的是一个model,而cvsvm是xml文件,在计算最后的wx+b=0中的w向量的时候,对于libsvm直接处理model文件即可,但是对于cvsvm则可以跳过产生xml文件,直接使用cvsvm的对象中的属性即可(这里说的有点模糊,二者选一个即可,关系倒不是很大)
欢迎大家批评指正、交流学习

OpenCV官方的SVM代码在http://www.opencv.org.cn/opencvdoc/2.3.2/html/doc/tutorials/ml/introduction_to_svm/introduction_to_svm.html

http://blog.csdn.net/sangni007/article/details/7471222看到一段还不错的代码,结构清楚,虽然注释比较少,但很有参考价值,于是我添加了一些注释,看着更舒服。废话少说,直接上代码:     

[cpp] view plaincopyprint
#include "cv.h" 
#include "highgui.h" 
#include "stdafx.h" 
#include <ml.h> 
#include <iostream> 
#include <fstream> 
#include <string> 
#include <vector> 
using namespace cv; 
using namespace std; 
 
 
int main(int argc, char** argv)   
{   
    vector<string> img_path;//输入文件名变量
    vector<int> img_catg; 
    int nLine = 0; 
    string buf; 
    ifstream svm_data( "E:/SVM_DATA.txt" );//首先,这里搞一个文件列表,把训练样本图片的路径都写在这个txt文件中,使用bat批处理文件可以得到这个txt文件  
    unsigned long n; 
 
    while( svm_data )//将训练样本文件依次读取进来 
    { 
        if( getline( svm_data, buf ) ) 
        { 
            nLine ++; 
            if( nLine % 2 == 0 )//这里的分类比较有意思,看得出来上面的SVM_DATA.txt文本中应该是一行是文件路径,接着下一行就是该图片的类别,可以设置为0或者1,当然多个也无所谓
            { 
                 img_catg.push_back( atoi( buf.c_str() ) );//atoi将字符串转换成整型,标志(0,1),注意这里至少要有两个类别,否则会出错 
            } 
            else 
            { 
                img_path.push_back( buf );//图像路径 
            } 
        } 
    } 
    svm_data.close();//关闭文件 
 
    CvMat *data_mat, *res_mat; 
    int nImgNum = nLine / 2; //读入样本数量 ,因为是每隔一行才是图片路径,所以要除以2
    ////样本矩阵,nImgNum:横坐标是样本数量, WIDTH * HEIGHT:样本特征向量,即图像大小 
    data_mat = cvCreateMat( nImgNum, 1764, CV_32FC1 );  //这里第二个参数,即矩阵的列是由下面的descriptors的大小决定的,可以由descriptors.size()得到,且对于不同大小的输入训练图片,这个值是不同的
    cvSetZero( data_mat ); 
    //类型矩阵,存储每个样本的类型标志 
    res_mat = cvCreateMat( nImgNum, 1, CV_32FC1 ); 
    cvSetZero( res_mat ); 
 
    IplImage* src; 
    IplImage* trainImg=cvCreateImage(cvSize(64,64),8,3);//需要分析的图片,这里默认设定图片是64*64大小,所以上面定义了1764,如果要更改图片大小,可以先用debug查看一下descriptors是多少,然后设定好再运行 
 
 //开始搞HOG特征
    for( string::size_type i = 0; i != img_path.size(); i++ ) 
    { 
            src=cvLoadImage(img_path[i].c_str(),1); 
            if( src == NULL ) 
            { 
                cout<<" can not load the image: "<<img_path[i].c_str()<<endl; 
                continue; 
            } 
 
            cout<<" processing "<<img_path[i].c_str()<<endl; 
                
            cvResize(src,trainImg);   //读取图片    
            HOGDescriptor *hog=new HOGDescriptor(cvSize(64,64),cvSize(16,16),cvSize(8,8),cvSize(8,8),9);  //具体意思见参考文章1,2    
            vector<float>descriptors;//结果数组    
            hog->compute(trainImg, descriptors,Size(1,1), Size(0,0)); //调用计算函数开始计算    
            cout<<"HOG dims: "<<descriptors.size()<<endl; 
            //CvMat* SVMtrainMat=cvCreateMat(descriptors.size(),1,CV_32FC1); 
            n=0; 
            for(vector<float>::iterator iter=descriptors.begin();iter!=descriptors.end();iter++) 
            { 
                cvmSet(data_mat,i,n,*iter);//把HOG存储下来 
                n++; 
            } 
                //cout<<SVMtrainMat->rows<<endl; 
            cvmSet( res_mat, i, 0, img_catg[i] ); 
            cout<<" end processing "<<img_path[i].c_str()<<" "<<img_catg[i]<<endl; 
    } 
     
              
    CvSVM svm = CvSVM();//新建一个SVM   
    CvSVMParams param;//这里是参数
    CvTermCriteria criteria;   
    criteria = cvTermCriteria( CV_TERMCRIT_EPS, 1000, FLT_EPSILON );   
    param = CvSVMParams( CvSVM::C_SVC, CvSVM::RBF, 10.0, 0.09, 1.0, 10.0, 0.5, 1.0, NULL, criteria );   
/*   
    SVM种类:CvSVM::C_SVC   
    Kernel的种类:CvSVM::RBF   
    degree:10.0(此次不使用)   
    gamma:8.0   
    coef0:1.0(此次不使用)   
    C:10.0   
    nu:0.5(此次不使用)   
    p:0.1(此次不使用)   
    然后对训练数据正规化处理,并放在CvMat型的数组里。   
                                                        */      
    //☆☆☆☆☆☆☆☆☆(5)SVM学习☆☆☆☆☆☆☆☆☆☆☆☆        
    svm.train( data_mat, res_mat, NULL, NULL, param );//训练啦   
    //☆☆利用训练数据和确定的学习参数,进行SVM学习☆☆☆☆    
    svm.save( "SVM_DATA.xml" );
 
    //检测样本 
    IplImage *test; 
    vector<string> img_tst_path; 
    ifstream img_tst( "E:/SVM_TEST.txt" );//同输入训练样本,这里也是一样的,只不过不需要标注图片属于哪一类了
    while( img_tst ) 
    { 
        if( getline( img_tst, buf ) ) 
        { 
            img_tst_path.push_back( buf ); 
        } 
    } 
    img_tst.close(); 
 
 
 
    CvMat *test_hog = cvCreateMat( 1, 1764, CV_32FC1 );//注意这里的1764,同上面一样 
    char line[512]; 
    ofstream predict_txt( "SVM_PREDICT.txt" );//把预测结果存储在这个文本中 
    for( string::size_type j = 0; j != img_tst_path.size(); j++ )//依次遍历所有的待检测图片 
    { 
        test = cvLoadImage( img_tst_path[j].c_str(), 1); 
        if( test == NULL ) 
        { 
             cout<<" can not load the image: "<<img_tst_path[j].c_str()<<endl; 
               continue; 
         } 
         
        cvZero(trainImg); 
        cvResize(test,trainImg);   //读取图片    
        HOGDescriptor *hog=new HOGDescriptor(cvSize(64,64),cvSize(16,16),cvSize(8,8),cvSize(8,8),9);  //具体意思见参考文章1,2    
        vector<float>descriptors;//结果数组    
        hog->compute(trainImg, descriptors,Size(1,1), Size(0,0)); //调用计算函数开始计算    
        cout<<"HOG dims: "<<descriptors.size()<<endl; 
        CvMat* SVMtrainMat=cvCreateMat(1,descriptors.size(),CV_32FC1); 
        n=0; 
        for(vector<float>::iterator iter=descriptors.begin();iter!=descriptors.end();iter++) 
            { 
                cvmSet(SVMtrainMat,0,n,*iter); 
                n++; 
            } 
 
        int ret = svm.predict(SVMtrainMat);//获取最终检测结果,这个predict的用法见 OpenCV的文档
  std::sprintf( line, "%s %d\r\n", img_tst_path[j].c_str(), ret ); 
        predict_txt<<line; 
    } 
    predict_txt.close(); 
 
//cvReleaseImage( &src); 
//cvReleaseImage( &sampleImg ); 
//cvReleaseImage( &tst ); 
//cvReleaseImage( &tst_tmp ); 
cvReleaseMat( &data_mat ); 
cvReleaseMat( &res_mat ); 
 
return 0; 

其中,关于HOG函数HOGDescriptor,见博客http://blog.csdn.net/raocong2010/article/details/6239431

另外,自己需要把这个程序嵌入到另外一个工程中去,因为那里数据类型是Mat,不是cvMat,所以我又修改了上面的程序,并且图片大小也不是固定的64*64,需要自己设置一下图片大小,因为太懒,直接把改好的程序放过来:

#include "stdafx.h"

#include "cv.h" 
#include "highgui.h" 
#include "stdafx.h" 
#include <ml.h> 
#include <iostream> 
#include <fstream> 
#include <string> 
#include <vector> 
using namespace cv; 
using namespace std; 
 
 
int main(int argc, char** argv)   
{   
 int ImgWidht = 120;
 int ImgHeight = 120;
    vector<string> img_path; 
    vector<int> img_catg; 
    int nLine = 0; 
    string buf; 
    ifstream svm_data( "E:/apple/SVM_DATA.txt" ); 
    unsigned long n; 
 
    while( svm_data ) 
    { 
        if( getline( svm_data, buf ) ) 
        { 
            nLine ++; 
            if( nLine < 5 ) 
            { 
    img_catg.push_back(1);
    img_path.push_back( buf );//图像路径
            } 
            else 
            { 
    img_catg.push_back(0);
    img_path.push_back( buf );//图像路径
            } 
        } 
    } 
    svm_data.close();//关闭文件 
 
    Mat data_mat, res_mat; 
    int nImgNum = nLine;            //读入样本数量 
    ////样本矩阵,nImgNum:横坐标是样本数量, WIDTH * HEIGHT:样本特征向量,即图像大小 
 //data_mat = Mat::zeros( nImgNum, 12996, CV_32FC1 );   
    //类型矩阵,存储每个样本的类型标志 
    res_mat = Mat::zeros( nImgNum, 1, CV_32FC1 ); 
 
    Mat src; 
    Mat trainImg = Mat::zeros(ImgHeight, ImgWidht, CV_8UC3);//需要分析的图片 
 
    for( string::size_type i = 0; i != img_path.size(); i++ ) 
    { 
  src = imread(img_path[i].c_str(), 1);  
 
        cout<<" processing "<<img_path[i].c_str()<<endl; 
        
  resize(src, trainImg, cv::Size(ImgWidht,ImgHeight), 0, 0, INTER_CUBIC);
        HOGDescriptor *hog=new HOGDescriptor(cvSize(ImgWidht,ImgHeight),cvSize(16,16),cvSize(8,8),cvSize(8,8), 9);  //具体意思见参考文章1,2    
        vector<float>descriptors;//结果数组    
        hog->compute(trainImg, descriptors, Size(1,1), Size(0,0)); //调用计算函数开始计算
  if (i==0)
  {
    data_mat = Mat::zeros( nImgNum, descriptors.size(), CV_32FC1 ); //根据输入图片大小进行分配空间
  }
        cout<<"HOG dims: "<<descriptors.size()<<endl;  
        n=0; 
        for(vector<float>::iterator iter=descriptors.begin();iter!=descriptors.end();iter++) 
        { 
   data_mat.at<float>(i,n) = *iter; 
            n++; 
        } 
        //cout<<SVMtrainMat->rows<<endl; 
     res_mat.at<float>(i, 0) =  img_catg[i]; 
        cout<<" end processing "<<img_path[i].c_str()<<" "<<img_catg[i]<<endl; 
    } 
              
    CvSVM svm = CvSVM();
    CvSVMParams param; 
    CvTermCriteria criteria;   
    criteria = cvTermCriteria( CV_TERMCRIT_EPS, 1000, FLT_EPSILON );   
    param = CvSVMParams( CvSVM::C_SVC, CvSVM::RBF, 10.0, 0.09, 1.0, 10.0, 0.5, 1.0, NULL, criteria );  
 
/*   
    SVM种类:CvSVM::C_SVC   
    Kernel的种类:CvSVM::RBF   
    degree:10.0(此次不使用)   
    gamma:8.0   
    coef0:1.0(此次不使用)   
    C:10.0   
    nu:0.5(此次不使用)   
    p:0.1(此次不使用)   
    然后对训练数据正规化处理,并放在CvMat型的数组里。   
                                                        */      
    //☆☆☆☆☆☆☆☆☆(5)SVM学习☆☆☆☆☆☆☆☆☆☆☆☆        
    svm.train( data_mat, res_mat, Mat(), Mat(), param );   
    //☆☆利用训练数据和确定的学习参数,进行SVM学习☆☆☆☆    
    svm.save( "E:/apple/SVM_DATA.xml" );
 
    //检测样本 
    vector<string> img_tst_path; 
    ifstream img_tst( "E:/apple/SVM_TEST.txt" ); 
    while( img_tst ) 
    { 
        if( getline( img_tst, buf ) ) 
        { 
            img_tst_path.push_back( buf ); 
        } 
    } 
    img_tst.close(); 
 
 Mat test;
    char line[512]; 
    ofstream predict_txt( "E:/apple/SVM_PREDICT.txt" ); 
    for( string::size_type j = 0; j != img_tst_path.size(); j++ ) 
    { 
        test = imread( img_tst_path[j].c_str(), 1);//读入图像  
        resize(test, trainImg, cv::Size(ImgWidht,ImgHeight), 0, 0, INTER_CUBIC);//要搞成同样的大小才可以检测到      
        HOGDescriptor *hog=new HOGDescriptor(cvSize(ImgWidht,ImgHeight),cvSize(16,16),cvSize(8,8),cvSize(8,8),9);  //具体意思见参考文章1,2    
        vector<float>descriptors;//结果数组    
        hog->compute(trainImg, descriptors,Size(1,1), Size(0,0)); //调用计算函数开始计算
  cout<<"The Detection Result:"<<endl;
        cout<<"HOG dims: "<<descriptors.size()<<endl; 
        Mat SVMtrainMat =  Mat::zeros(1,descriptors.size(),CV_32FC1); 
        n=0; 
        for(vector<float>::iterator iter=descriptors.begin();iter!=descriptors.end();iter++) 
        { 
   SVMtrainMat.at<float>(0,n) = *iter; 
            n++; 
        } 
 
        int ret = svm.predict(SVMtrainMat); 
  std::sprintf( line, "%s %d\r\n", img_tst_path[j].c_str(), ret );
  printf("%s %d\r\n", img_tst_path[j].c_str(), ret);
  getchar();
        predict_txt<<line; 
    } 
    predict_txt.close(); 
 
return 0; 

就到这里吧,再整理一下思路。
如果运行的时候出现Link错误,有可能是没有附加依赖项,要添加opencv_objdetect230d.lib,我的OpenCV是2.3版本,所以这里是230.

本文章已收录于:


0 0
原创粉丝点击