OPENCL如何获取获取最小线程并行粒度

来源:互联网 发布:彬哥破解软件 编辑:程序博客网 时间:2024/06/06 06:41

由于OpenCL是为各类处理器设备而打造的开发标准的计算语言。因此跟CUDA不太一样的是,其对设备特征查询的项更上层,而没有提供一些更为底层的特征查询。比如,你用OpenCL的设备查询API只能获取最大work group size,但无法获取到最小线程并行粒度。

但是,由于最小线程并行粒度对于OpenCL应用领域最广的GPU而言确实是一个比较重要的参数。如果你的work group的work item的个数是最小线程并行粒度的倍数,那么你的OpenCL kernel程序往往会达到很高的计算效率,同时也能基于这个模型来做一些Memory Bank Confliction的避免措施。因此,我这里提供了一个比较简单的OpenCL kernel来获取当前GPU或其它处理器的最小线程并行粒度。


我们知道,一个计算设备由若干个Compute Unit构i成,而一个Compute Unit中包含了多个Processing Element,一个Compute Unit中的所有Processing Element对于一条算术逻辑指令而言是同时进行操作的。而不同的Compute Unit之间也可以是同时进行操作。因此,GPU的并行可以划分为两个层次——一层是Compute Unit内的所有Processing Element的并行操作;另一层是各个Compute Unit的并行操作。

上面是物理层面,如果对于OpenCL逻辑层面,我们可以认为,一个work group的最大work item个数是指一个compute unit最多能调度、分配的线程数。这个数值一般就是一个CU内所包含的PE的个数的倍数。比如,如果一个GPU有2个CU,每个CU含有8个PE,而Max work group size是512,那么说明一个CU至少可以分配供512个线程并发操作所需要的各种资源。由于一个GPU根据一条算术逻辑指令能对所有PE发射若干次作为一个“原子的”发射操作,因此,这一个对程序员而言作为“原子的”发射操作启动了多少个线程,那么我们就可以认为是该GPU的最小并行线程数。如果一款GPU的最小线程并行数是32,那么该GPU将以32个线程作为一组原子的线程组。这意味着,如果遇到分支,那么一组32个线程组中的所有线程都将介入这个分支,对于不满足条件的线程,则会等到这32个线程中其它线程都完成分支处理之后再一起执行下面的指令。

如果我将work group size指定为64,并且在kernel程序里加一个判断,如果pid小于32做操作A,否则做操作B,那么pid为0~31的线程组会执行操作A,而pid为32到63的线程组不会受到阻塞,而会立马执行操作B。此时,两组线程将并发操作(注意,这里是并发,而不是并行。因为上面讲过,GPU一次发射32个线程的话,那么对于多个32线程组将会调度发射指令)。

根据这个特性,我们就可以写一个OpenCL kernel程序来判别当前GPU的最小并行线程粒度。

我们首先会将work group size定为最大能接受的尺寸。然后,我们将这个work group平均划分为两组,对它们进行测试。我们在中间定义了一个local memory的变量,每个线程都能访问它,不过我们只让pid为0以及pid为[max_work_group_size / 2]的线程去访问它,以不受太多干扰。如果这个标志在线程组0执行时被线程组1改变,那么我们就知道这个粒度并非是最小的,然后对前一组再平均划分为2,递归操作。如果在执行线程组0之后标志没有被更改,那么说明这整个线程组是一个原子的线程组,也就是我们所要的最小并行的线程粒度。

在内核程序中,我们还传了一个用于延迟的循环次数,使得非原子的线程组能够被并发执行。

下面的程序的执行环境为:Windows 7 32-bit Home Edition    AMD-APU A6-3420M    Visual Studio 2013 Express Edition    AMD APP SDK

下面先贴主机端的部分代码片断:

复制代码
/*Step 3: Create context.*/        cl_context context = nullptr;       // OpenCL context        cl_command_queue commandQueue = nullptr;        cl_program program = nullptr;       // OpenCL kernel program object that'll be running on the compute device        cl_mem outputMemObj = nullptr;      // output memory object for output        cl_kernel kernel = nullptr;         // kernel object        const int deviceIndex = 0;        context = clCreateContext(NULL,1, &devices[deviceIndex],NULL,NULL,NULL);        /*Step 4: Creating command queue associate with the context.*/        commandQueue = clCreateCommandQueue(context, devices[deviceIndex], 0, NULL);        /*Step 5: Create program object */        // Read the kernel code to the buffer        FILE *fp = fopen("cl_kernel.cl", "rb");        if(fp == nullptr)        {            puts("The kernel file not found!");            goto RELEASE_RESOURCES;        }        fseek(fp, 0, SEEK_END);        size_t kernelLength = ftell(fp);        fseek(fp, 0, SEEK_SET);        char *kernelCodeBuffer = (char*)malloc(kernelLength + 1);        fread(kernelCodeBuffer, 1, kernelLength, fp);        kernelCodeBuffer[kernelLength] = '\0';        fclose(fp);                const char *aSource = kernelCodeBuffer;        program = clCreateProgramWithSource(context, 1, &aSource, &kernelLength, NULL);        /*Step 6: Build program. */        status = clBuildProgram(program, 1, &devices[deviceIndex], NULL, NULL, NULL);        /*Step 7: Initial inputs and output for the host and create memory objects for the kernel*/        cl_int outputArg = 0;        outputMemObj = clCreateBuffer(context, CL_MEM_WRITE_ONLY, sizeof(outputArg), NULL, NULL);        /*Step 8: Create kernel object */        kernel = clCreateKernel(program,"QueryMinimumGranularity", NULL);        /*Step 9: Sets Kernel arguments.*/        cl_int inputArg = 1000;        status = clSetKernelArg(kernel, 0, sizeof(inputArg), &inputArg);        status = clSetKernelArg(kernel, 1, sizeof(outputMemObj), &outputMemObj);        /*Step 10: Running the kernel.*/        size_t groupSize;        clGetDeviceInfo(devices[deviceIndex], CL_DEVICE_MAX_WORK_GROUP_SIZE, sizeof(groupSize), &groupSize, NULL);        size_t global_work_size[1] = { groupSize };        size_t local_work_size[1] = { groupSize };        status = clEnqueueNDRangeKernel(commandQueue, kernel, 1, NULL, global_work_size, local_work_size, 0, NULL, NULL);        clFinish(commandQueue);     // Force wait until the OpenCL kernel is completed        /*Step 11: Read the cout put back to host memory.*/        status = clEnqueueReadBuffer(commandQueue, outputMemObj, CL_TRUE, 0, sizeof(outputArg), &outputArg, 0, NULL, NULL);        char chBuffer[256];        wchar_t wsBuffer[256];        sprintf(chBuffer, "The minimum granularity is: %d", outputArg);        MBString2WCString(wsBuffer, chBuffer, false);        MessageBox(hWnd, wsBuffer, L"Notice", MB_OK);
复制代码


下面是kernel代码:

复制代码
__kernel void QueryMinimumGranularity(int nLoop, __global int *pOut){    __local volatile int flag;    int index = get_global_id(0);    int totalItems = get_global_size(0);    do    {        int halfIndex = totalItems / 2;        if(index == 0)            flag = 1;        barrier(CLK_LOCAL_MEM_FENCE);        if(index < halfIndex)        {            for(int i = 0; i < nLoop; i++)            {                if(flag == -1)                    break;            }            if(flag != -1)            {                if(index == 0)                {                    *pOut = totalItems;                    flag = 2;                }            }        }        else        {            if(index == halfIndex)            {                if(flag != 2)                {                    //while(flag != 1);                    flag = -1;                }            }        }        barrier(CLK_LOCAL_MEM_FENCE);        if(flag == 2)            break;        totalItems /= 2;    }    while(totalItems > 0);}
复制代码

 

0 0