Linux mpi 程序示例

来源:互联网 发布:java编程思想 pdf 下载 编辑:程序博客网 时间:2024/06/10 01:34
下面用一个简单的例子,给出在Linux平台上开发MPI并行程序的一个基本框架,以便对基于MPICH的并行程序有一个感性认识。基于MPICH的并行程序可以用C或者Fortran开发,此处给出的例子是用C语言编写的。  
  /*====================* 
  * mpi_hello.c - Demo program of MPICH. * 
  *====================*/ 
  
  #include 
  #include “mpi.h” 
  
  int main(int argc, char **argv) 
  { 
  int myrank, nprocs, namelen; 
  char processor_name[MPI_MAX 
  _PROCESSOR_NAME]; 
  
  MPI_Init(&argc, &argv); 
  MPI_Comm_size(MPI_COMM_ 
  WORLD, &nprocs); 
  MPI_Comm_rank(MPI_COMM 
  _WORLD, &myrank); 
  MPI_Get_processor_name(processor_name, &namelen); 
  
  printf(“Hello World! I’m rank %d of %d on %s\n”, myrank, 
  nprocs, processor_name); 
  
  MPI_Finalize(); 
  return 0; 
  } 
  
  为了保证编译的正确性,程序的首部必须包含MPI的头文件mpi.h。该文件给出了MPI所有调用接口的说明,并对所有用到的常量进行了定义。MPI_MAX_PROCESSOR_NAME就是该文件中定义的一个常量,是某一MPI具体实现(此处即为MPICH)中允许的主机名的最大长度。 
  
  在调用任何MPI函数之前,必须先调用MPI_Init()进行相应的初始化工作。当所有MPI函数调用都完成之后,还必须调用MPI_Finalize()进行相应的清理工作。命令行参数通过MPI_Init()函数传递给MPI,以便为各个并行执行的程序建立起正确的运行环境。 
  
  接下去的几个MPI函数用来获得并行计算环境的一些基本信息。上面的示例程序只是简单地输出了这些信息,但通常情况下这些信息将被用来进行问题的自动分解,或者用于建立各并行机间的通信。MPI_Comm_size()函数可以得到参与并行计算的进程个数;MPI_Comm_rank()函数可以得到当前正在运行的进程的标识;而MPI_Get_processor_name()函数则能够获得当前进程所在主机的名称。 
  
  基于MPI的并行程序可能有很多种编译方法,大多数MPI实现都提供了一个易于使用的脚本来完成编译,这些脚本能够为编译器设置合适的参数,帮助编译器找到MPI头文件所在的目录,并能够连接上所需的库文件,从而保证编译过程的正确性。MPICH和LAM都提供了一个名为mpicc的脚本来完成并行程序的编译。例如,要编译上述的示例程序,只需执行下面的命令即可:  
    mpicc -o mpi_hello mpi_hello.c  

  在并行环境中的多台计算机上同时执行该程序,要将编译好的程序复制到不同的机器上,并且可执行程序必须放 

      mpirun -np 6 mpi_hello  

  在MPICH中,mpirun是MPI程序的启动脚本,它简化了并行进程的启动过程,尽可能屏蔽了底层的实现细节,从而为用户提供了一个通用的MPI并行机。在用mpirun命令执行并行程序时,参数-np指明了需要并行运行的进程个数。mpirun首先在本地结点上启动一个进程,然后根据/usr/local/share/machines.LINUX文件中所列出的主机,为每个主机启动一个进程。若进程数比可用的并行节点数多,则多余的进程将重新按照上述规则进行 Hello World! I′m rank 0 of 6 on node1 
  Hello World! I′m rank 1 of 6 on node2 
  Hello World! I′m rank 5 of 6 on node3 
  Hello World! I′m rank 3 of 6 on node1 
  Hello World! I′m rank 2 of 6 on node2 
  Hello World! I′m rank 4 of 6 on node3 
0 0
原创粉丝点击