OpenMP多线程

来源:互联网 发布:tempostorm 知乎 编辑:程序博客网 时间:2024/06/05 03:57
OpenMP并行程序设计
          转载:http://blog.csdn.net/augusdi/article/details/8807119
          OpenMP是一个支持共享存储并行设计的库,特别适宜多核CPU上的并行程序设计。今天在双核CPU机器上试了一下OpenMP并行程序设计,发现效率方面超出想象,因此写出来分享给大家。
          在VC8.0中项目的属性对话框中,左边框里的“配置属性”下的“C/C++”下的“语言”页里,将OpenMP支持改为“是/(OpenMP)”就可以支持OpenMP了。
          先看一个简单的使用了OpenMP程序
[cpp] view plain copy
  1. int main(int argc, char* argv[])  
  2. {  
  3. #pragma omp parallel for  
  4.     for (int i = 0; i < 10; i++ )  
  5.     {  
  6.         printf("i = %d/n", i);  
  7.     }  
  8.     return 0;  
  9. }  

这个程序执行后打印出以下结果:
i = 0
i = 5
i = 1
i = 6
i = 2
i = 7
i = 3
i = 8
i = 4
i = 9
          可见for 循环语句中的内容被并行执行了。(每次运行的打印结果可能会有区别)
          这里要说明一下,#pragma omp parallel for 这条语句是用来指定后面的for循环语句变成并行执行的,当然for循环里的内容必须满足可以并行执行,即每次循环互不相干,后一次循环不依赖于前面的循环。
          有关#pragma omp parallel for 这条语句的具体含义及相关OpenMP指令和函数的介绍暂时先放一放,只要知道这条语句会将后面的for循环里的内容变成并行执行就行了。
          将for循环里的语句变成并行执行后效率会不会提高呢,我想这是我们最关心的内容了。下面就写一个简单的测试程序来测试一下:
[cpp] view plain copy
  1. void test()  
  2. {  
  3.     int a = 0;  
  4.     clock_t t1 = clock();  
  5.     for (int i = 0; i < 100000000; i++)  
  6.     {  
  7.         a = i+1;  
  8.     }  
  9.     clock_t t2 = clock();  
  10.     printf("Time = %d/n", t2-t1);  
  11. }  
  12. int main(int argc, char* argv[])  
  13. {  
  14.     clock_t t1 = clock();  
  15. #pragma omp parallel for  
  16.     for ( int j = 0; j < 2; j++ ){  
  17.         test();  
  18.     }  
  19.     clock_t t2 = clock();  
  20.     printf("Total time = %d/n", t2-t1);  
  21.     test();  
  22.     return 0;  
  23. }  
          在test()函数中,执行了1亿次循环,主要是用来执行一个长时间的操作。
          在main()函数里,先在一个循环里调用test()函数,只循环2次,我们还是看一下在双核CPU上的运行结果吧:
Time = 297
Time = 297
Total time = 297
Time = 297
          可以看到在for循环里的两次test()函数调用都花费了297ms, 但是打印出的总时间却只花费了297ms,后面那个单独执行的test()函数花费的时间也是297ms,可见使用并行计算后效率提高了整整一倍。
          下一篇文章中将介绍OpenMP的具体指令和用法。
OpenMP并行程序设计

fork/join并行执行模式的概念

          OpenMP是一个编译器指令和库函数的集合,主要是为共享式存储计算机上的并行程序设计使用的。
          前面一篇文章中已经试用了OpenMP的一个Parallel for指令。从上篇文章中我们也可以发现OpenMP并行执行的程序要全部结束后才能执行后面的非并行部分的代码。这就是标准的并行模式fork/join式并行模式,共享存储式并行程序就是使用fork/join式并行的。
标准并行模式执行代码的基本思想是,程序开始时只有一个主线程,程序中的串行部分都由主线程执行,并行的部分是通过派生其他线程来执行,但是如果并行部分没有结束时是不会执行串行部分的,如上一篇文章中的以下代码:
[cpp] view plain copy
  1. int main(int argc, char* argv[])  
  2. {  
  3. clock_t t1 = clock();  
  4. #pragma omp parallel for  
  5. for ( int j = 0; j < 2; j++ ){  
  6. test();  
  7. }  
  8. clock_t t2 = clock();  
  9. printf("Total time = %d/n", t2-t1);  
  10. test();  
  11. return 0;  
  12. }  
          在没有执行完for循环中的代码之前,后面的clock_t t2 = clock();这行代码是不会执行的,如果和调用线程创建函数相比,它相当于先创建线程,并等待线程执行完,所以这种并行模式中在主线程里创建的线程并没有和主线程并行运行。

OpenMP指令和库函数介绍

          下面来介绍OpenMP的基本指令和常用指令的用法,
          在C/C++中,OpenMP指令使用的格式为
pragma omp 指令 [子句[子句]…]
          前面提到的parallel for就是一条指令,有些书中也将OpenMP的“指令”叫做“编译指导语句”,后面的子句是可选的。例如:
#pragma omp parallel private(i,  j)
parallel 就是指令, private是子句
          为叙述方便把包含#pragma和OpenMP指令的一行叫做语句,如上面那行叫parallel语句。
          OpenMP的指令有以下一些:
parallel,用在一个代码段之前,表示这段代码将被多个线程并行执行。
for,用于for循环之前,将循环分配到多个线程中并行执行,必须保证每次循环之间无相关性。
parallel for, parallel 和 for语句的结合,也是用在一个for循环之前,表示for循环的代码将被多个线程并行执行。
sections,用在可能会被并行执行的代码段之前。
parallel sections,parallel和sections两个语句的结合。
critical,用在一段代码临界区之前。
single,用在一段只被单个线程执行的代码段之前,表示后面的代码段将被单线程执行。
flush,更新并行区域里的共享变量进行的修改,确保并行的多线程对共享变量的读操作是最新值。
barrier,用于并行区内代码的线程同步,所有线程执行到barrier时要停止,直到所有线程都执行到barrier时才继续往下执行。
atomic,用于指定一块内存区域被自动更新。
master,用于指定一段代码块由主线程执行。
ordered, 用于指定并行区域的循环按顺序执行。
threadprivate, 用于指定一个变量是线程私有的。
          OpenMP除上述指令外,还有一些库函数,下面列出几个常用的库函数:
omp_get_num_procs, 返回运行本线程的多处理机的处理器个数。
omp_get_num_threads, 返回当前并行区域中的活动线程个数。
omp_get_thread_num, 返回线程号。
omp_set_num_threads, 设置并行执行代码时的线程个数。
omp_init_lock, 初始化一个简单锁。
omp_set_lock, 上锁操作。
omp_unset_lock, 解锁操作,要和omp_set_lock函数配对使用。
omp_destroy_lock, omp_init_lock函数的配对操作函数,关闭一个锁。
OpenMP的子句有以下一些
private, 指定每个线程都有它自己的变量私有副本。
firstprivate指定每个线程都有它自己的变量私有副本,并且变量要被继承主线程中的初值。
lastprivate主要是用来指定将线程中的私有变量的值在并行处理结束后复制回主线程中的对应变量。
reduce用来指定一个或多个变量是私有的,并且在并行处理结束后这些变量要执行指定的运算。
nowait忽略指定中暗含的等待。
num_threads,指定线程的个数。
schedule,指定如何调度for循环迭代。
shared指定一个或多个变量为多个线程间的共享变量。
ordered用来指定for循环的执行要按顺序执行。
copyprivate用于single指令中的指定变量为多个线程的共享变量。
copyin用来指定一个threadprivate的变量的值要用主线程的值进行初始化。
default用来指定并行处理区域内的变量的使用方式,缺省是shared。

parallel 指令的用法

          parallel 是用来构造一个并行块的,也可以使用其他指令如for、sections等和它配合使用。
          在C/C++中,parallel的使用方法如下:
[cpp] view plain copy
  1. #pragma omp parallel [for | sections] [子句[子句]…]  
  2. {  
  3. //代码  
  4. }  
parallel语句后面要跟一个大括号对将要并行执行的代码括起来。
[cpp] view plain copy
  1. void main(int argc, char *argv[]) {  
  2. #pragma omp parallel   
  3. {  
  4.       printf(“Hello, World!/n”);  
  5. }  
  6. }  
执行以上代码将会打印出以下结果
Hello, World!
Hello, World!
Hello, World!
Hello, World!
可以看得出parallel语句中的代码被执行了四次,说明总共创建了4个线程去执行parallel语句中的代码。
也可以指定使用多少个线程来执行,需要使用num_threads子句:
[cpp] view plain copy
  1. void main(int argc, char *argv[]) {  
  2. #pragma omp parallel num_threads(8)  
  3. {  
  4.     printf(“Hello, World!, ThreadId=%d/n”, omp_get_thread_num() );  
  5. }  
  6. }  
执行以上代码,将会打印出以下结果:
Hello, World!, ThreadId = 2
Hello, World!, ThreadId = 6
Hello, World!, ThreadId = 4
Hello, World!, ThreadId = 0
Hello, World!, ThreadId = 5
Hello, World!, ThreadId = 7
Hello, World!, ThreadId = 1
Hello, World!, ThreadId = 3
    从ThreadId的不同可以看出创建了8个线程来执行以上代码。所以parallel指令是用来为一段代码创建多个线程来执行它的。parallel块中的每行代码都被多个线程重复执行。
和传统的创建线程函数比起来,相当于为一个线程入口函数重复调用创建线程函数来创建线程并等待线程执行完。

for指令的使用方法

         for指令则是用来将一个for循环分配到多个线程中执行。for指令一般可以和parallel指令合起来形成parallel for指令使用,也可以单独用在parallel语句的并行块中。
#pragma omp [parallel] for [子句]
for循环语句
先看看单独使用for语句时是什么效果:
[cpp] view plain copy
  1. int j = 0;  
  2. #pragma omp for  
  3. for ( j = 0; j < 4; j++ ){  
  4.     printf(“j = %d, ThreadId = %d/n”, j, omp_get_thread_num());  
  5. }  
        执行以上代码后打印出以下结果
j = 0, ThreadId = 0
j = 1, ThreadId = 0
j = 2, ThreadId = 0
j = 3, ThreadId = 0
        从结果可以看出四次循环都在一个线程里执行,可见for指令要和parallel指令结合起来使用才有效果:
        如以下代码就是parallel 和for一起结合成parallel for的形式使用的:
[cpp] view plain copy
  1. int j = 0;  
  2. #pragma omp parallel for  
  3. for ( j = 0; j < 4; j++ ){  
  4.     printf(“j = %d, ThreadId = %d/n”, j, omp_get_thread_num());  
  5. }  
       执行后会打印出以下结果:
j = 0, ThreadId = 0
j = 2, ThreadId = 2
j = 1, ThreadId = 1
j = 3, ThreadId = 3
       可见循环被分配到四个不同的线程中执行。
       上面这段代码也可以改写成以下形式:
[cpp] view plain copy
  1. int j = 0;  
  2. #pragma omp parallel   
  3. {  
  4. #pragma omp for  
  5. for ( j = 0; j < 4; j++ ){  
  6.     printf(“j = %d, ThreadId = %d/n”, j, omp_get_thread_num());  
  7. }  
  8. }  
        执行以上代码会打印出以下结果:
j = 1, ThreadId = 1
j = 3, ThreadId = 3
j = 2, ThreadId = 2
j = 0, ThreadId = 0
        在一个parallel 块中也可以有多个for语句,如:
[cpp] view plain copy
  1. int j;  
  2. #pragma omp parallel   
  3. {  
  4. #pragma omp for  
  5. for ( j = 0; j < 100; j++ ){  
  6. …  
  7. }  
  8. #pragma omp for  
  9. for ( j = 0; j < 100; j++ ){  
  10. …  
  11. }  
  12. …  
  13. }  
        for 循环语句中,书写是需要按照一定规范来写才可以的,即for循环小括号内的语句要按照一定的规范进行书写,for语句小括号里共有三条语句
[cpp] view plain copy
  1. for( i=start; i < end; i++)  
i=start; 是for循环里的第一条语句,必须写成 “变量=初值” 的方式。如 i=0
i < end;是for循环里的第二条语句,这个语句里可以写成以下4种形式之一:
变量 < 边界值
变量 <= 边界值
变量 > 边界值
变量 >= 边界值
如 i>10 i< 10 i>=10 i>10 等等
最后一条语句i++可以有以下9种写法之一
i++
++i
i--
--i
i += inc
i -= inc
i = i + inc
i = inc + i
i = i –inc
例如i += 2; i -= 2;i = i + 2;i = i - 2;都是符合规范的写法。

和section指令的用法

          section语句是用在sections语句里用来将sections语句里的代码划分成几个不同的段,每段都并行执行。用法如下:
#pragma omp [parallel] sections [子句]
{
#pragma omp section
{
代码块
}
}
先看一下以下的例子代码:
[cpp] view plain copy
  1. void main(int argc, char *argv)  
  2. {  
  3. #pragma omp parallel sections {  
  4. #pragma omp section  
  5.     printf(“section 1 ThreadId = %d/n”, omp_get_thread_num());  
  6. #pragma omp section   
  7.     printf(“section 2 ThreadId = %d/n”, omp_get_thread_num());  
  8. #pragma omp section  
  9.     printf(“section 3 ThreadId = %d/n”, omp_get_thread_num());  
  10. #pragma omp section   
  11.     printf(“section 4 ThreadId = %d/n”, omp_get_thread_num());  
  12. }  
执行后将打印出以下结果:
section 1 ThreadId = 0
section 2 ThreadId = 2
section 4 ThreadId = 3
section 3 ThreadId = 1
        从结果中可以发现第4段代码执行比第3段代码早,说明各个section里的代码都是并行执行的,并且各个section被分配到不同的线程执行。
        使用section语句时,需要注意的是这种方式需要保证各个section里的代码执行时间相差不大,否则某个section执行时间比其他section过长就达不到并行执行的效果了。
        上面的代码也可以改写成以下形式:
[cpp] view plain copy
  1. void main(int argc, char *argv)  
  2. {  
  3. #pragma omp parallel {  
  4. #pragma omp sections  
  5. {  
  6. #pragma omp section  
  7.     printf(“section 1 ThreadId = %d/n”, omp_get_thread_num());  
  8. #pragma omp section   
  9.     printf(“section 2 ThreadId = %d/n”, omp_get_thread_num());  
  10. }  
  11. #pragma omp sections  
  12. {  
  13. #pragma omp section  
  14.     printf(“section 3 ThreadId = %d/n”, omp_get_thread_num());  
  15. #pragma omp section   
  16.     printf(“section 4 ThreadId = %d/n”, omp_get_thread_num());  
  17. }  
  18. }  
        执行后将打印出以下结果:
section 1 ThreadId = 0
section 2 ThreadId = 3
section 3 ThreadId = 3
section 4 ThreadId = 1
        这种方式和前面那种方式的区别是,两个sections语句是串行执行的,即第二个sections语句里的代码要等第一个sections语句里的代码执行完后才能执行。
        用for语句来分摊是由系统自动进行,只要每次循环间没有时间上的差距,那么分摊是很均匀的,使用section来划分线程是一种手工划分线程的方式,最终并行性的好坏得依赖于程序员。
        本篇文章中讲的几个OpenMP指令parallel, for, sections, section实际上都是用来如何创建线程的,这种创建线程的方式比起传统调用创建线程函数创建线程要更方便,并且更高效。
        当然,创建线程后,线程里的变量是共享的还是其他方式,主线程中定义的变量到了并行块内后还是和传统创建线程那种方式一样的吗?创建的线程是如何调度的?等等诸如此类的问题到下一篇文章中进行讲解。

中的数据处理子句

相关文档连接:

多核编程中的任务随机竞争模式的概率分析
多核编程中的任务分组竞争模式 
 多核编程中的负载平衡难题
多核编程中的锁竞争难题
多核编程的几个难题及其应对策略(难题一)
OpenMP并行程序设计(二)
 OpenMP并行程序设计(一)
 双核CPU上的快速排序效率 
OpenMP创建线程中的锁及原子操作性能比较

private子句

private子句用于将一个或多个变量声明成线程私有的变量,变量声明成私有变量后,指定每个线程都有它自己的变量私有副本,其他线程无法访问私有副本。即使在并行区域外有同名的共享变量,共享变量在并行区域内不起任何作用,并且并行区域内不会操作到外面的共享变量。
private子句的用法格式如下:
private(list)
下面便是一个使用private子句的代码例子:
[cpp] view plain copy
  1. int k = 100;  
  2. #pragma omp parallel for private(k)  
  3. for ( k=0; k < 10; k++)  
  4. {  
  5.       printf("k=%d/n", k);  
  6. }  
  7.    
  8. printf("last k=%d/n", k);  
上面程序执行后打印的结果如下:
k=6
k=7
k=8
k=9
k=0
k=1
k=2
k=3
k=4
k=5
last k=100
从打印结果可以看出,for循环前的变量k和循环区域内的变量k其实是两个不同的变量。
用private子句声明的私有变量的初始值在并行区域的入口处是未定义的,它并不会继承同名共享变量的值。
出现在reduction子句中的参数不能出现在private子句中

firstprivate子句

private声明的私有变量不能继承同名变量的值,但实际情况中有时需要继承原有共享变量的值,OpenMP提供了firstprivate子句来实现这个功能。
先看一下以下的代码例子
[cpp] view plain copy
  1. int k = 100;  
  2. #pragma omp parallel for firstprivate(k)  
  3. for ( i=0; i < 4; i++)  
  4. {  
  5.       k+=i;  
  6.       printf("k=%d/n",k);  
  7. }  
  8.    
  9. printf("last k=%d/n", k);  
上面代码执行后打印结果如下:
k=100
k=101
k=103
k=102
last k=100
从打印结果可以看出,并行区域内的私有变量k继承了外面共享变量k的值100作为初始值,并且在退出并行区域后,共享变量k的值保持为100未变。

lastprivate子句

有时在并行区域内的私有变量的值经过计算后,在退出并行区域时,需要将它的值赋给同名的共享变量,前面的private和firstprivate子句在退出并行区域时都没有将私有变量的最后取值赋给对应的共享变量,lastprivate子句就是用来实现在退出并行区域时将私有变量的值赋给共享变量。
举个例子如下:
[cpp] view plain copy
  1. int k = 100;  
  2. #pragma omp parallel for firstprivate(k),lastprivate(k)  
  3.  for ( i=0; i < 4; i++)  
  4. {  
  5.     k+=i;  
  6.     printf("k=%d/n",k);  
  7. }  
  8.   
  9. printf("last k=%d/n", k);  
        上面代码执行后的打印结果如下:
k=100
k=101
k=103
k=102
last k=103
从打印结果可以看出,退出for循环的并行区域后,共享变量k的值变成了103,而不是保持原来的100不变。
由于在并行区域内是多个线程并行执行的,最后到底是将那个线程的最终计算结果赋给了对应的共享变量呢?OpenMP规范中指出,如果是循环迭代,那么是将最后一次循环迭代中的值赋给对应的共享变量如果是section构造,那么是最后一个section语句中的值赋给对应的共享变量。注意这里说的最后一个section是指程序语法上的最后一个,而不是实际运行时的最后一个运行完的。
如果是类(class)类型的变量使用在lastprivate参数中,那么使用时有些限制,需要一个可访问的,明确的缺省构造函数,除非变量也被使用作为firstprivate子句的参数;还需要一个拷贝赋值操作符,并且这个拷贝赋值操作符对于不同对象的操作顺序是未指定的,依赖于编译器的定义。

threadprivate子句

threadprivate子句用来指定全局的对象被各个线程各自复制了一个私有的拷贝,即各个线程具有各自私有的全局对象。
用法如下:
#pragma omp threadprivate(listnew-line
下面用threadprivate命令来实现一个各个线程私有的计数器,各个线程使用同一个函数来实现自己的计数。计数器代码如下:
[cpp] view plain copy
  1. int counter = 0;  
  2. #pragma omp threadprivate(counter)  
  3. int increment_counter()  
  4. {  
  5.          counter++;  
  6.          return(counter);  
  7. }  
如果对于静态变量也同样可以使用threadprivate声明成线程私有的,上面的counter变量如改成用static类型来实现时,代码如下:
[cpp] view plain copy
  1. int increment_counter2()  
  2. {  
  3. static int counter = 0;  
  4. #pragma omp threadprivate(counter)  
  5.          counter++;  
  6.          return(counter);  
  7. }  
threadprivate和private的区别在于threadprivate声明的变量通常是全局范围内有效的,而private声明的变量只在它所属的并行构造中有效
threadprivate的对应只能用于copyin,copyprivate,schedule,num_threads和if子句中,不能用于任何其他子句中
用作threadprivate的变量的地址不能是常数。
对于C++的类(class)类型变量,用作threadprivate的参数时有些限制,当定义时带有外部初始化时,必须具有明确的拷贝构造函数。
对于windows系统,threadprivate不能用于动态装载(使用LoadLibrary装载)的DLL中,可以用于静态装载的DLL中,关于windows系统中的更多限制,请参阅MSDN中有关threadprivate子句的帮助材料。
有关threadprivate命令的更多限制方面的信息,详情请参阅OpenMP2.5规范。

shared子句

shared子句用来声明一个或多个变量是共享变量。
用法如下:
shared(list)
需要注意的是,在并行区域内使用共享变量时,如果存在写操作,必须对共享变量加以保护,否则不要轻易使用共享变量,尽量将共享变量的访问转化为私有变量的访问。
循环迭代变量在循环构造区域里是私有的。声明在循环构造区域内的自动变量都是私有的。

子句

default子句用来允许用户控制并行区域中变量的共享属性。
用法如下:
default(shared none)
使用shared时,缺省情况下,传入并行区域内的同名变量被当作共享变量来处理,不会产生线程私有副本,除非使用private等子句来指定某些变量为私有的才会产生副本。
如果使用none作为参数,那么线程中用到的变量必须显示指定是共享的还是私有的,除了那些由明确定义的除外。

reduction子句

reduction子句主要用来对一个或多个参数条目指定一个操作符,每个线程将创建参数条目的一个私有拷贝,在区域的结束处,将用私有拷贝的值通过指定的运行符运算,原始的参数条目被运算结果的值更新。
 
reduction子句用法如下:
reduction(operator:list)
下表列出了可以用于reduction子句的一些操作符以及对应私有拷贝变量缺省的初始值,私有拷贝变量的实际初始值依赖于redtucion变量的数据类型。
表10-4-1:reduction操作中各种操作符号对应拷贝变量的缺省初始值
Operator
Initialization value
+
0
*
1
-
0
&
~0
|
0
^
0
&&
1
||
0
例如一个整数求和的程序如下:
[cpp] view plain copy
  1. int i, sum = 100;  
  2.    
  3. #pragma omp parallel for reduction(+: sum)  
  4. for ( i = 0; i < 1000; i++ )  
  5. {  
  6.  sum += i;  
  7. }  
  8.    
  9. printf( "sum = %ld/n", sum);  
注意,如果在并行区域内不加锁保护就直接对共享变量进行写操作,存在数据竞争问题,会导致不可预测的异常结果。共享数据作为privatefirstprivatelastprivatethreadprivatereduction子句的参数进入并行区域后,就变成线程私有了,不需要加锁保护了。

copyin子句

copyin子句用来将主线程中threadprivate变量的值拷贝到执行并行区域的各个线程的threadprivate变量中,便于线程可以访问主线程中的变量值,
用法如下:
copyin(list)
 
copyin中的参数必须被声明成threadprivate的,对于类类型的变量,必须带有明确的拷贝赋值操作符。
对于前面threadprivate中讲过的计数器函数,如果多个线程使用时,各个线程都需要对全局变量counter的副本进行初始化,可以使用copyin子句来实现,示例代码如下:
[cpp] view plain copy
  1. int main(int argc, char* argv[])  
  2. {  
  3.          int iterator;  
  4. #pragma omp parallel sections copyin(counter)  
  5.          {  
  6. #pragma omp section  
  7.                    {  
  8.                             int count1;  
  9.                             for ( iterator = 0; iterator < 100; iterator++ )  
  10.                             {  
  11.                                      count1 = increment_counter();  
  12.                             }  
  13.                             printf("count1 = %ld/n", count1);  
  14.                    }  
  15. #pragma omp section  
  16.                    {  
  17.                             int count2;  
  18.                             for ( iterator = 0; iterator < 200; iterator++ )  
  19.                             {  
  20.                                      count2 = increment_counter();  
  21.                             }  
  22.                             printf("count2 = %ld/n", count2);  
  23.                    }  
  24.          }  
  25.          printf("counter = %ld/n", counter);  
  26. }  
打印结果如下:
count1 = 100
count2 = 200
counter = 0
 
从打印结果可以看出,两个线程都正确实现了各自的计数。

copyprivate子句

copyprivate子句提供了一种机制用一个私有变量将一个值从一个线程广播到执行同一并行区域的其他线程。
用法如下:
copyprivate(list)
copyprivate子句可以关联single构造,在single构造的barrier到达之前就完成了广播工作。copyprivate可以对privatethreadprivate子句中的变量进行操作,但是当使用single构造时,copyprivate的变量不能用于privatefirstprivate子句中。
 
下面便是一个使用copyprivate的代码例子:
[cpp] view plain copy
  1. int counter = 0;  
  2. #pragma omp threadprivate(counter)  
  3. int increment_counter()  
  4. {  
  5.          counter++;  
  6.          return(counter);  
  7. }  
  8. #pragma omp parallel  
  9.          {  
  10.                    int    count;  
  11. #pragma omp single copyprivate(counter)  
  12.                    {  
  13.                             counter = 50;  
  14.                    }  
  15.                    count = increment_counter();  
  16.                    printf("ThreadId: %ld, count = %ld/n", omp_get_thread_num(), count);  
  17. }  
打印结果为:
ThreadId: 2, count = 51
ThreadId: 0, count = 51
ThreadId: 3, count = 51
ThreadId: 1, count = 51
 
如果没有使用copyprivate子句,那么打印结果为:
ThreadId: 2, count = 1
ThreadId: 1, count = 1
ThreadId: 0, count = 51
ThreadId: 3, count = 1
 
从打印结果可以看出,使用copyprivate子句后,single构造内给counter赋的值被广播到了其他线程里,但没有使用copyprivate子句时,只有一个线程获得了single构造内的赋值,其他线程没有获取single构造内的赋值。
   参考文献:

Ananth Grama, Anshul Gupta,“并行计算导论”,张武等译,机械工业出版社,2005.01

Michael J. Quinn, “MPI与OpenMP并行程序设计”,陈文光等译,清华大学出版社,2004.10

Shameem Akhter等,“多核程序设计技术-通过软件多线程提升性能”,电子工业出版社,2007.03
OpenMP2.5规范     http://www.openmp.org/
OpenMP2.0规范     http://www.openmp.org/
MSDN帮助材料           ms-help://MS.VSCC.v80/MS.MSDN.v80/MS.VisualStudio.v80.chs/dv_vclang/html/652414c5-78ed-4b7f-8283-1a9fe4c5e78d.htm  
注:本文的写作主要参考OpenMP2.5规范等参考文献,限于水平,可能存在对规范理解不足之处,请大家发现问题时不吝指正。

中的任务调度

OpenMP中,任务调度主要用于并行的for循环中,当循环中每次迭代的计算量不相等时,如果简单地给各个线程分配相同次数的迭代的话,会造成各个线程计算负载不均衡,这会使得有些线程先执行完,有些后执行完,造成某些CPU核空闲,影响程序性能。例如以下代码:
[cpp] view plain copy
  1. int i, j;  
  2. int a[100][100] = {0};  
  3. for ( i =0; i < 100; i++)  
  4. {  
  5.     for( j = i; j < 100; j++ )  
  6.     {  
  7.         a[i][j] = i*j;  
  8.     }  
  9. }  
如果将最外层循环并行化的话,比如使用4个线程,如果给每个线程平均分配25次循环迭代计算的话,显然i=0和i=99的计算量相差了100倍,那么各个线程间可能出现较大的负载不平衡情况。为了解决这些问题,OpenMP中提供了几种对for循环并行化的任务调度方案。
在OpenMP中,对for循环并行化的任务调度使用schedule子句来实现,下面介绍schedule字句的用法。

schedule子句用法

schedule子句的使用格式为:
schedule(type[,size])
schedule有两个参数:type和size,size参数是可选的。
1.       type参数
表示调度类型,有四种调度类型如下:
· dynamic
· guided
· runtime
· static
这四种调度类型实际上只有static、dynamic、guided三种调度方式,runtime实际上是根据环境变量来选择前三种中的某中类型。
run-sched-var
2.       size参数 (可选)

size参数表示循环迭代次数,size参数必须是整数。static、dynamic、guided三种调度方式都可以使用size参数,也可以不使用size参数。type参数类型为runtime时,size参数是非法的(不需要使用,如果使用的话编译器会报错)。

当parallel for编译指导语句没有带schedule子句时,大部分系统中默认采用static调度方式,这种调度方式非常简单。假设有n次循环迭代,t个线程,那么给每个线程静态分配大约n/t次迭代计算。这里为什么说大约分配n/t次呢?因为n/t不一定是整数,因此实际分配的迭代次数可能存在差1的情况,如果指定了size参数的话,那么可能相差一个size。

调度(guided)
静态调度时可以不使用size参数,也可以使用size参数。
3.       不使用size参数
不使用size参数时,分配给每个线程的是n/t次连续的迭代,不使用size参数的用法如下:
schedule(static)
例如以下代码:
[cpp] view plain copy
  1. #pragma omp parallel for schedule(static)  
  2.  for(i = 0; i < 10; i++ )  
  3. {  
  4.          printf("i=%d, thread_id=%d/n", i, omp_get_thread_num());  
  5. }  
上面代码执行时打印的结果如下:
i=0, thread_id=0
i=1, thread_id=0
i=2, thread_id=0
i=3, thread_id=0
i=4, thread_id=0
i=5, thread_id=1
i=6, thread_id=1
i=7, thread_id=1
i=8, thread_id=1
i=9, thread_id=1
可以看出线程0得到了0~4次连续迭代,线程1得到5~9次连续迭代。注意由于多线程执行时序的随机性,每次执行时打印的结果顺序可能存在差别,后面的例子也一样。
4.       使用size参数
使用size参数时,分配给每个线程的size次连续的迭代计算,用法如下:
schedule(static, size)
例如以下代码:
[cpp] view plain copy
  1. #pragma omp parallel for schedule(static, 2)  
  2. for(i = 0; i < 10; i++ )  
  3. {  
  4.     printf("i=%d, thread_id=%d/n", i, omp_get_thread_num());  
  5. }  

执行时会打印以下结果:
i=0, thread_id=0
i=1, thread_id=0
i=4, thread_id=0
i=5, thread_id=0
i=8, thread_id=0
i=9, thread_id=0
i=2, thread_id=1
i=3, thread_id=1
i=6, thread_id=1
i=7, thread_id=1
从打印结果可以看出,0、1次迭代分配给线程0,2、3次迭代分配给线程1,4、5次迭代分配给线程0,6、7次迭代分配给线程1,…。每个线程依次分配到2次连续的迭代计算。
调度(dynamic)
动态调度是动态地将迭代分配到各个线程,动态调度可以使用size参数也可以不使用size参数,不使用size参数时是将迭代逐个地分配到各个线程,使用size参数时,每次分配给线程的迭代次数为指定的size次。
下面为使用动态调度不带size参数的例子:
[cpp] view plain copy
  1. #pragma omp parallel for schedule(dynamic)  
  2. for(i = 0; i < 10; i++ )  
  3. {  
  4.       printf("i=%d, thread_id=%d/n", i, omp_get_thread_num());  
  5. }  
        打印结果如下:
i=0, thread_id=0
i=1, thread_id=1
i=2, thread_id=0
i=3, thread_id=1
i=5, thread_id=1
i=6, thread_id=1
i=7, thread_id=1
i=8, thread_id=1
i=4, thread_id=0
i=9, thread_id=1
 
下面为动态调度使用size参数的例子:        
[cpp] view plain copy
  1. #pragma omp parallel for schedule(dynamic, 2)  
  2. for(i = 0; i < 10; i++ )  
  3. {  
  4.       printf("i=%d, thread_id=%d/n", i, omp_get_thread_num());  
  5. }  
        打印结果如下:
i=0, thread_id=0
i=1, thread_id=0
i=4, thread_id=0
i=2, thread_id=1
i=5, thread_id=0
i=3, thread_id=1
i=6, thread_id=0
i=8, thread_id=1
i=7, thread_id=0
i=9, thread_id=1
从打印结果可以看出第0、1,4、5,6、7次迭代被分配给了线程0,第2、3,8、9次迭代则分配给了线程1,每次分配的迭代次数为2。
调度(guided)
guided调度是一种采用指导性的启发式自调度方法。开始时每个线程会分配到较大的迭代块,之后分配到的迭代块会逐渐递减。迭代块的大小会按指数级下降到指定的size大小,如果没有指定size参数,那么迭代块大小最小会降到1。
例如以下代码:
   
[cpp] view plain copy
  1. #pragma omp parallel for schedule(guided,2)  
  2. for(i = 0; i < 10; i++ )  
  3. {  
  4.     printf("i=%d, thread_id=%d/n", i, omp_get_thread_num());  
  5. }  

打印结果如下:
i=0, thread_id=0
i=1, thread_id=0
i=2, thread_id=0
i=3, thread_id=0
i=4, thread_id=0
i=8, thread_id=0
i=9, thread_id=0
i=5, thread_id=1
i=6, thread_id=1
i=7, thread_id=1
第0、1、2、3、4次迭代被分配给线程0,第5、6、7次迭代被分配给线程1,第8、9次迭代被分配给线程0,分配的迭代次数呈递减趋势,最后一次递减到2次。
调度(rumtime)
runtime调度并不是和前面三种调度方式似的真实调度方式,它是在运行时根据环境变量OMP_SCHEDULE来确定调度类型,最终使用的调度类型仍然是上述三种调度方式中的某种。
例如在unix系统中,可以使用setenv命令来设置OMP_SCHEDULE环境变量:
setenv OMP_SCHEDULE “dynamic, 2”
上述命令设置调度类型为动态调度,动态调度的迭代次数为2。
在windows环境中,可以在”系统属性|高级|环境变量”对话框中进行设置环境变量。

OpenMP创建线程中的锁及原子操作性能比较

 
相关文档连接:
多核编程中的任务随机竞争模式的概率分析
多核编程中的任务分组竞争模式            
 多核编程中的负载平衡难题
多核编程中的锁竞争难题
多核编程的几个难题及其应对策略(难题一)
OpenMP并行程序设计(二)
 OpenMP并行程序设计(一)
 双核CPU上的快速排序效率            
 
在多核CPU中锁竞争到底会造成性能怎样的下降呢?相信这是许多人想了解的,因此特地写了一个测试程序来测试原子操作,windows CriticalSection, OpenMP的锁操作函数在多核CPU中的性能。
 
原子操作选用InterlockedIncrement来进行测试,对每种锁和原子操作,都测试在单任务执行和多任务执行2000000次加锁解锁操作所消耗的时间。
测试的详细代码见后面。
 
测试机器环境: Intel 2.66G 双核CPU 机器一台
 
测试运行结果如下:
SingleThread, InterlockedIncrement 2,000,000: a = 2000000, time = 78
MultiThread, InterlockedIncrement 2,000,000: a = 2000000, time = 156
SingleThread, Critical_Section 2,000,000:a = 2000000, time = 172
MultiThread, Critical_Section, 2,000,000:a = 2000000, time = 3156
SingleThread,omp_lock 2,000,000:a = 2000000, time = 250
MultiThread,omp_lock 2,000,000:a = 2000000, time = 1063
 
在单任务运行情况下,所消耗的时间如下:
原子操作                 78ms
Windows CriticalSection 172ms
OpenMP 的lock操作        250ms
 
因此从单任务情况来看,原子操作最快,Windows CriticalSection次之,OpenMP库带的锁最慢,但这几种操作的时间差距不是很大,用锁操作比原子操作慢了2~3倍左右。
 
在多个任务运行的情况下,所消耗的时间如下:
原子操作                 156ms
Windows CriticalSection 3156ms
OpenMP 的lock操作        1063ms
 
在多任务运行情况下,情况发生了意想不到的变化,原子操作时间比单任务操作时慢了一倍,在两个CPU上运行比在单个CPU上运行还慢一倍,真是难以想象,估计是任务切换开销造成的。
Windows CriticalSection则更离谱了,居然花了3156ms,是单任务运行时的18倍多的时间,慢得简直无法想象。
OpenMP的lock操作比Windows CriticalSection稍微好一些,但也花了1063ms,是单任务时的7倍左右。
 
由此可以知道,在多核CPU的多任务环境中,原子操作是最快的,而OpenMP次之,Windows CriticalSection则最慢。
 
同时从这些锁在单任务和多任务下的性能差距可以看出,,多核CPU上的编程和以往的单核多任务编程会有很大的区别。
需要说明的是,本测试是一种极端情况下的测试,锁住的操作只是一个简单的加1操作,并且锁竞争次数达200万次之多,在实际情况中,一由于任务中还有很多不需要加锁的代码在运行,实际情况中的性能会比本测试的性能好很多。
        测试代码如下:
[cpp] view plain copy
  1. // TestLock.cpp : OpenMP任务中的原子操作和锁性能测试程序。  
  2. //  
  3.    
  4. #include <windows.h>  
  5. #include <time.h>  
  6. #include <process.h>  
  7. #include <omp.h>  
  8. #include <stdio.h>  
  9.    
  10. void TestAtomic()  
  11. {  
  12.      clock_t t1,t2;  
  13.      int i = 0;  
  14.      volatile LONG a = 0;  
  15.    
  16.      t1 = clock();  
  17.    
  18.      for( i = 0; i < 2000000; i++ )  
  19.      {  
  20.          InterlockedIncrement( &a);  
  21.      }  
  22.        
  23.      t2 = clock();  
  24.      printf("SingleThread, InterlockedIncrement 2,000,000: a = %ld, time = %ld/n", a, t2-t1);  
  25.    
  26.      t1 = clock();  
  27.    
  28. #pragma omp parallel for  
  29.      for( i = 0; i < 2000000; i++ )  
  30.      {  
  31.          InterlockedIncrement( &a);  
  32.      }  
  33.        
  34.      t2 = clock();  
  35.      printf("MultiThread, InterlockedIncrement 2,000,000: a = %ld, time = %ld/n", a, t2-t1);  
  36. }  
  37.    
  38. void TestOmpLock()  
  39. {  
  40.      clock_t t1,t2;  
  41.      int i;  
  42.      int a = 0;  
  43.      omp_lock_t mylock;  
  44.    
  45.      omp_init_lock(&mylock);  
  46.    
  47.      t1 = clock();  
  48.    
  49.      for( i = 0; i < 2000000; i++ )  
  50.      {  
  51.          omp_set_lock(&mylock);  
  52.          a+=1;  
  53.          omp_unset_lock(&mylock);  
  54.      }  
  55.      t2 = clock();  
  56.        
  57.      printf("SingleThread,omp_lock 2,000,000:a = %ld, time = %ld/n", a, t2-t1);  
  58.    
  59.      t1 = clock();  
  60.    
  61. #pragma omp parallel for   
  62.      for( i = 0; i < 2000000; i++ )  
  63.      {  
  64.          omp_set_lock(&mylock);  
  65.          a+=1;  
  66.          omp_unset_lock(&mylock);  
  67.      }  
  68.      t2 = clock();  
  69.        
  70.      printf("MultiThread,omp_lock 2,000,000:a = %ld, time = %ld/n", a, t2-t1);  
  71.    
  72.      omp_destroy_lock(&mylock);  
  73. }   
  74.    
  75. void TestCriticalSection()  
  76. {  
  77.      clock_t t1,t2;  
  78.      int i;  
  79.      int a = 0;  
  80.      CRITICAL_SECTION cs;  
  81.    
  82.      InitializeCriticalSection(&cs);  
  83.    
  84.      t1 = clock();  
  85.    
  86.      for( i = 0; i < 2000000; i++ )  
  87.      {  
  88.          EnterCriticalSection(&cs);  
  89.          a+=1;  
  90.          LeaveCriticalSection(&cs);  
  91.      }  
  92.      t2 = clock();  
  93.    
  94.      printf("SingleThread, Critical_Section 2,000,000:a = %ld, time = %ld/n", a, t2-t1);  
  95.    
  96.      t1 = clock();  
  97.    
  98. #pragma omp parallel for   
  99.      for( i = 0; i < 2000000; i++ )  
  100.      {  
  101.          EnterCriticalSection(&cs);  
  102.          a+=1;  
  103.          LeaveCriticalSection(&cs);  
  104.      }  
  105.      t2 = clock();  
  106.    
  107.      printf("MultiThread, Critical_Section, 2,000,000:a = %ld, time = %ld/n", a, t2-t1);  
  108.    
  109.      DeleteCriticalSection(&cs);  
  110. }  
  111.    
  112. int main(int argc, char* argv[])  
  113. {  
  114.      TestAtomic();  
  115.      TestCriticalSection();  
  116.      TestOmpLock();  
  117.    
  118.      return 0;  
  119. }  

                    OpenMP程序设计的两个小技巧

动态设置并行循环的线程数量

在实际情况中,程序可能运行在不同的机器环境里,有些机器是双核,有些机器是4核甚至更多核。并且未来硬件存在升级的可能,CPU核数会变得越来越多。如何根据机器硬件的不同来自动设置合适的线程数量就显得很重要了,否则硬件升级后程序就得进行修改,那将是一件很麻烦的事情。
比如刚开始在双核系统中开发的软件,线程数量缺省都设成2,那么当机器升级到4核或8核以后,线程数量就不能满足要求了,除非修改程序。
线程数量的设置除了要满足机器硬件升级的可扩展性外,还需要考虑程序的可扩展性,当程序运算量增加或减少后,设置的线程数量仍然能够满足要求。显然这也不能通过设置静态的线程数量来解决。
在具体计算需要使用多少线程时,主要需要考虑以下两点:
1)当循环次数比较少时,如果分成过多数量的线程来执行,可能会使得总运行时间高于较少线程或一个线程执行的情况。并且会增加能耗。
2) 如果设置的线程数量远大于CPU核数的话,那么存在着大量的任务切换和调度等开销,也会降低整体效率。
那么如何根据循环的次数和CPU核数来动态地设置线程的数量呢?下面以一个例子来说明动态设置线程数量的算法,假设一个需要动态设置线程数的需求为:
1、 以多个线程运行时的每个线程运行的循环次数不低于4次
2、 总的运行线程数最大不超过2倍CPU核数
下面代码便是一个实现上述需求的动态设置线程数量的例子
[cpp] view plain copy
  1. const int MIN_ITERATOR_NUM = 4;  
  2. int ncore = omp_get_num_procs(); //获取执行核的数量  
  3. int max_tn = n / MIN_ITERATOR_NUM;  
  4. int tn = max_tn > 2 * ncore ? 2 * ncore : max_tn; //tn表示要设置的线程数量  
  5. #pragma omp parallel for if( tn > 1) num_threads(tn)  
  6.      for ( i = 0; i < n; i++ )  
  7.      {  
  8.          printf("Thread Id = %ld/n", omp_get_thread_num());  
  9.          //Do some work here  
  10.      }  
在上面代码中,根据每个线程运行的循环次数不低于4次,先计算出最大可能的线程数max_tn,然后计算需要的线程数量tn,tn的值等于max_tn和2倍CPU核数中的较小值。
然后在parallel for构造中使用if子句来判断tn是否大于1,大于1时使用单个线程,否则使用tn个线程,,这样就使得设置的线程数量满足了需求中的条件。
比如在一个双核CPU上,n=64,最终会以2倍CPU核数(4个)线程运行,而不会以max_tn = 64/4=16个线程运行。
在实际情况中,当然不能每个循环都象上面一样写几行代码来计算一遍,可以将其写成一个独立的功能函数如下:
[cpp] view plain copy
  1. const int g_ncore = omp_get_num_procs(); //获取执行核的数量  
  2.    
  3. /** 计算循环迭代需要的线程数量 
  4.      根据循环迭代次数和CPU核数及一个线程最少需要的循环迭代次数 
  5.      来计算出需要的线程数量,计算出的最大线程数量不超过CPU核数 
  6.   
  7.      @param   int n - 循环迭代次数    
  8.      @param   int min_n - 单个线程需要的最少迭代次数     
  9.      @return int - 线程数量      
  10. */  
  11. int dtn(int n, int min_n)  
  12. {  
  13.    int max_tn = n / min_n;  
  14.    int tn = max_tn > g_ncore ? g_ncore : max_tn; //tn表示要设置的线程数量  
  15.    if ( tn < 1 )  
  16.    {  
  17.         tn = 1;  
  18.    }   
  19.    return tn;  
  20. }  

这样每次并行化循环时就可以直接使用函数dtn()来获取合适的线程数量,前面的代码可以简写成如下形式:
[cpp] view plain copy
  1. #pragma omp parallel for num_threads(dtn(n, MIN_ITERATOR_NUM))  
  2. for ( i = 0; i < n; i++ )  
  3. {  
  4.     printf("Thread Id = %ld/n", omp_get_thread_num());  
  5.     //Do some work here  
  6. }  
当然具体设置多少线程要视情况而定的,一般情况下线程数量刚好等于CPU核数可以取得比较好的性能,因为线程数等于CPU核数时,每个核执行一个任务,没有任务切换开销。
2、嵌套循环的并行化
在嵌套循环中,如果外层循环迭代次数较少时,如果将来CPU核数增加到一定程度时,创建的线程数将可能小于CPU核数。另外如果内层循环存在负载平衡的情况下,很难调度外层循环使之达到负载平衡。
       下面以矩阵乘法作为例子来讲述如何将嵌套循环并行化,以满足上述扩展性和负载平衡需求。
       一个串行的矩阵乘法的函数代码如下:
[cpp] view plain copy
  1. /** 矩阵串行乘法函数 
  2.     @param    int *a - 指向要相乘的第个矩阵的指针 
  3.     @param    int row_a - 矩阵a的行数 
  4.     @param    int col_a - 矩阵a的列数 
  5.     @param    int *b - 指向要相乘的第个矩阵的指针  
  6.     @param    int row_b - 矩阵b的行数 
  7.     @param    int col_b - 矩阵b的列数 
  8.     @param    int *c - 计算结果的矩阵的指针 
  9.     @param    int c_size - 矩阵c的空间大小(总元素个数) 
  10.     @return   void - 无 
  11. */  
  12. void Matrix_Multiply(int *a, int row_a, int col_a,   
  13.                      int *b, int row_b,int col_b,  
  14.                      int *c, int c_size)  
  15. {  
  16.     if ( col_a != row_b || c_size < row_a * col_b )  
  17.     {  
  18.         return;  
  19.     }  
  20.    
  21.     int i, j, k;  
  22. //#pragma omp for private(i, j, k)  
  23.     for ( i = 0; i < row_a; i++ )  
  24.     {  
  25.         int row_i = i * col_a;  
  26.         int row_c = i * col_b;  
  27.         for ( j = 0; j < col_b; j++ )  
  28.         {  
  29.            c[row_c + j] = 0;  
  30.             for ( k = 0; k < row_b; k++ )  
  31.             {  
  32.                 c[row_c + j] += a[row_i + k] * b[k * col_b + j];  
  33.             }  
  34.         }  
  35.     }  
  36. }  
如果在外层循环前加上OpenMP的for语句时,它就变成了一个并行的矩阵乘法函数,但是这样简单地将其并行化显然无法满足前面所述的扩展性需求。
         其实可以采用一个简单的方法将最外层循环和第2层循环合并成一个循环,下面便是采用合并循环后的并行实现。
[cpp] view plain copy
  1. void Parallel_Matrix_Multiply(int *a, int row_a, int col_a,   
  2.                      int *b, int row_b,int col_b,  
  3.                      int *c, int c_size )  
  4. {  
  5.     if ( col_a != row_b )  
  6.     {  
  7.         return;  
  8.     }  
  9.    
  10.     int i, j, k;   
  11.     int index;  
  12.     int border = row_a * col_b;  
  13.    
  14.     i = 0;   
  15.     j = 0;  
  16. #pragma omp parallel private(i,j,k) num_threads(dtn(border, 1))  
  17.     for ( index = 0; index < border; index++ )  
  18.     {  
  19.         i = index / col_b;  
  20.         j = index % col_b;  
  21.    
  22.         int row_i = i * col_a;  
  23.         int row_c = i * col_b;  
  24.    
  25.         c[row_c+j] = 0;  
  26.         for ( k = 0; k < row_b; k++ )  
  27.         {  
  28.             c[row_c + j] += a[row_i+k] * b[k*col_b+j];  
  29.         }  
  30.     }  
  31. }  
       从上面代码可以看出,合并后的循环边界border = row_a * col_b;即等于原来两个循环边界之积,然后在循环中计算出原来的外层循环和第2层循环的迭代变量i和j,采用除法和取余来求出i和j的值。
需要注意的是,上面求i和j的值必须要保证循环迭代的独立性,即不能有循环迭代间的依赖关系。不能将求i和j值的过程优化成如下的形式:
[cpp] view plain copy
  1. if ( j == col_b )  
  2. {  
  3.      j = 0;  
  4.      i++;  
  5. }  
  6. // …… 此处代表实际的矩阵乘法代码  
  7. j++;  
上面这种优化,省去了除法,效率高,但是只能在串行代码中使用,因为它存在循环迭代间的依赖关系,无法将其正确地并行化。
 
以上是参考转载周伟明老师的博客,非常感谢他的奉献,让我们受益匪浅。
http://blog.csdn.net/drzhouweiming/article/details/1131537
http://blog.csdn.net/drzhouweiming/article/details/1175848
http://blog.csdn.net/drzhouweiming/article/details/2033276
http://blog.csdn.net/drzhouweiming/article/details/1844762
http://blog.csdn.net/drzhouweiming/article/details/1689853
http://blog.csdn.net/drzhouweiming/article/details/2472454
0 0
原创粉丝点击