基于MPI并行编程环境简述
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
并行计算课程报告
题目:MPI并行编程环境概要指导老师:阮幼林教授
学院:信息工程学院
班级:信息研1001班
姓名:余华
学号:104972102820
时间:2011年01-10
摘要
随着科技的发展,新一代的计算机,无论计算能力和计算速度,都比旧的计算机优越。
但人类对高性能计算的需求,也不断提高.除了增强处理器本身的计算能力外,并行处理是一种提高计算能力的有效手段.从前,并行处理要采用昂贵的专用计算机,随着个人计算机及网络成本下降,现已广泛用分布式网络计算机系统进行并行处理。
在分布网络计算机系统中,采用消息传递方法实现进程间的通讯。
当前流行基于消息传递的并行编程环境是MPI(Message Passing Interface)。
关键词:消息传递;消息传递接口;并行编程;
Abstract
Because of the development of technology, the new generation of computer should be better than the former ones in the power and speed of computing. But the people's demand of high performance of computing is increasing too. In addition to enhancing the computing power of the processor, parallel processing is also an efficient way to enhance the power of computing. In the past, the parallel processing can only run on the expensive and special computers. As the cost of personal computers and networks decreased, and now, it is popular to process the parallel processing on the distributed network computing systems. In the distributed network computing systems, message passing is used for the communication between processes. MPI (Message Passing Interface) are common development environments of parallel processing based on message passing.
Keyword:Message passing; Message passing interface; Parallel programming;
1并行计算机系统介绍
1.1并行计算机的软件
并行计算机的软件紧随并行实体发展,因此,在不同的并行计算机体系结构都有相应的并行计算机软件。
并行计算机软件可分并行计算机系统软件和并行计算机应用软件。
并行计算机系统软件管理及协调并行计算机运作,并为用户提供计算机的并行接口。
因此它对充分发挥并行计算机的性能、令用户能有效及友善地使用算机十分重要。
并行系统软件包括并行操作系统及并行编译系统。
并行计算机应用软件是解决具体应用问题的程序,不同问题有不同应用软件。
并行计算机应用软件广泛应用于科学计算、图形、图象处理等领域。
并行程序在运行时,需要如任务的创建和终止、同步及通讯等操作。
操作系统和编译系统是分两个层次处理:低层操作,如任务的创建和终止、同步锁、点对点消息传递等由系统提供。
高层操作如编程方面,由程序员直接调用共享存储器并行机上的宏任务库、分布存储器并行机上的并行虚拟机器(Parallel Virtual Machine)及消息传递接口(Message passing interface)等并行函数库;或在并行编译器辅助下,由程序员间接调用并行函数库。
1.2并行程序设计语言
并行计算机系统体系结构、并行计算机软件和并行算法是并行处理的三个要素。
发挥并行计算机系统效率关键,在于充分利用程序中的并行部分。
并行程序设计语言提供描述并行处理的语言设施。
并行程序设计语言可分为向量计算机的向量语言、共享存储器并行计算机及分布式存储器并行计算机的并行语言。
分布式存储器的并行系统,每台计算机有独立的地址空间,数据通讯常用消息传递方式。
即必须通过发送及接收消息来交换计算机上的数据。
合理的数据分布,能减少远程访问,提高运行效率。
而其它影响效率的因素有:负载平衡、通讯延迟、通讯模式等。
消息传递方式有点对点通讯及集体通讯。
这种系统结构使用的并行程序设计语言须具备分布式数据描述及消息传递功能。
并行程序设计语言中的实现消息传递机制的方法有:
一、在原语言上提供并行函数库如PVM、MPI等;
二、扩充原来的语言的关键字及语法,如C++、Fortran-M等;
三、建立一种新的语言如Occam。
第一种方法的好处是编写并行程序时,只要在原语言上调用并行函数库,不用掌握新语言。
1.3并行计算机系统体系结构
并行计算机体系结构是具体执行并行处理的实体,可分为向量并行计算机、
共享存储器并行计算机及分布式存储器并行计算机。
一)向量并行计算机能对向量计算进行高速并行处理。
二)共享存储器并行计算机系统特征是多个处理器共享内存。
三)分布式存储器并行计算机由多个节点构成,每个节点都有独立的处理器及内存节点之间以网络相连,而节点的数目可以由几个到有数千个不等。
2 MPI发展及并行编程环境
2.1消息传递接口
消息传递接口MPI (Message-Passing Interface)是一个基于消息传递的标准并行函数库,提供在并行机系统及网络并行计算机上编写并行程序的环境。
来自美国及欧洲各国,共40个组织的80多位专家,其中包括生产并行机的厂家、大学、政府实验室和工厂的科研人员,参与了MPI标准化工作。
1992年4月,召开关于消息传递标准的工作会议,会上探讨了标准消息传递的基本和必要的特点,成立一个工作组继续进行标准化工作。
同年11月完成MPI的第一个草稿(MPI-1),于1993年3月发表修订版。
1994年5月,MPI标准正式发表,于同年6月发表MPI 1.1。
在这段期间,他们制定了一个可移植的消息传递库定义标准,命名为MPI(Message Passing Interface),可被C及Fortran 77语言调用。
MPI给出了并行库的规格说明,提供一套完整的消息传递函数库中例程。
MPI引入一些新的概念,如派生数据类型(derived datatypes)、上下文(contexts)及通讯子(communicators)。
虽然MPI集消息传递模型的优点,但也有欠缺,如并行I/0操作及PVM所提供的动态进程等。
1995年的春天举行MPI-2论坛,此时并行计算已有很大的变化。
若干旧式系统停产,新系统进入市场。
MPI-2的标准化始于1995年4月,并于1997年4月间完成。
首先修订94年原文件,更改了容易产生误解的地方及一些函数名称。
MPI-2的文件中也包括MPI 1.2。
MPI 1.2加进了讨论MPI-1时忽略的功能,如提取MPI版本号码。
MPI-2包括并行I/O,远程储存器操作(或称单边通讯)及动态进程管理。
也加进了一些新功能,如外部接口格式、支持C++及Fortran-90、支持多线程(threads)及混合语言编程等。
MPI-1的主要功能包括:
一、提供大量点对点通讯函数
二、为进程组提供大量集体通讯函数
三、使用通讯子(communicator)改善通讯的安全性
四、进程拓扑(Process topology)
五、使用剖析功能(Profiling)供调试用
六、产生派生数据类型处理不相连性数据
七、支持C及Fortran语言的消息传递函数
八、环境管理与查询函数
2.2 MPI并行编程环境
MPI由一组库函数组成,在Fortran77 ,Fortran99 , C和C++语言中皆可以直接对这些函数进行调用。
作为一种消息传递式的并行编程环境,MPI 并行程序要求将任务分块,同时启动多个进程并发执行,各进程之间通过调用MPI的库函数实现消息传递。
(1)进程创建和执行
一个MPI 并行程序山若干个并发进程组成,这些进程可以相同也可以不同。
MPI只支持静态进程创建,即:每个进程在执行前必须在MPI环境中登记,且它们必须一起启动。
通常启动可执行的MPI程序是通过命令行来实现的。
启动方法山具体实现确定。
例如在MPICH实现中通过下列命令行可同时在独立的机器上启动相同的可执行程序:
mpirun -np N programname
其中N是同时运行的进程的个数,program-name是可执行的MPI程序的程序名。
以这种方式执行时,需要首先对可用的机器进行配置,配置文件是$HOME/mpich/util/machines/machines.LINUX 。
在这个文件中,每一行写上可用的机器名。
例如:
这样就有6台机器可供MPI使用,每台机器执行一个进程。
(2)MPI的初始化与结束
MPI程序的初始化工作是通过调用MPI_ Init()函数完成的,该函数是MPI 程序的第一个函数调用,也是MPI程序的第一条可执行语句。
NIPI_ Finalize()函数是MPI程序的最后一个调用,它结束MPI程序的运行,是MPI程序的最后一条执行语句,如果没有该函数调用,程序的运行结果是不可预知的。
命令行的参数将传递给MPI_ Init (),以允许MPI进行设置要发生的动作,即: main(int argc,char*argv[ ])
{
MPI_Init(&argc,&argv);
……
MPI_Finalize();
}
初始化后,MPI自动创建一个通信域称为MPI_COMM_WORLD,由它定义通信操作的作用域。
并为域内每个进程分配一个独立的序号(进程标志),如果有n个进程,则其标识为0~n~1。
用户可以使用MPI初始化创建的通信域,也可以按照MPI提供的函数调用方式,在己有的通信域上生成新的通信域。
(3)MPI消息传递函数
MPI提供了点对点通信和组通信的消息传递函数,两类函数调用其通信方式上都是用了通信域,用这种方法,可以使库的通信域与用户程序分开。
①点对点通信
通信在两个进程之间进行,即:将消息由源进程传递到目的进程。
通常用MPI 的发送和接收函数调用来完成。
有4种函数调用模式,分别是:标准模式、缓存模式、同步模式和就绪模式。
其中最常用的是标准模式,该模式下发送调用一般格式如下:
MPI_ Send (void *buf,int count,MPI_Datatype datatype,int dest ,int tag,MPI_Comm comm)
buf:发送缓冲区的起始地址(可选类型);
count:将发送的数据的个数(非负整数);
datatype:发送数据的数据类型(句柄);
dest:目的进程标识号(整型);
tag:消息标志(整型);
comm:通信域(句柄)。
②组通信
通信的范围涉及组内所有进程。
MPI提供了一个广播函数和一组汇集和散播函数调用,它们是:
MPI_Bcast ()从根进程向所有进程广播消息;
MPI_Gather ()根进程汇集所有进程发送的消息;
MPI_Scatter ()根进程散播消息给所有进程;
MPI_Alltoall()所有进程向所有进程发送消息;
MPI_Reduce()将所有进程发送缓冲区中的数据按给定操作组合,结果存入根进程的接受缓冲区;
MPI_Reduce_scatter()在前个功能基础上再散播给所有进程;
MPI_Scan()每个进程归约其及前面进程发送缓冲区中的数据。
2.3 MPI基本并行程序设计
MPI为消息传递和相关操作提供了功能强大而又丰富的库函数,其内有上百个甚至几百个函数调用接口,但最常用的只是由6个函数构成的MPI子集,有了它们,就可以实现所有的消息传递并行程序功能。
它们是C的调用格式描述:
(1)MPI初始化函数
MPI_Init(int *argc, char***argv)
第一个MPI函数调用,初始化MPI编程环境,只能被调用一次。
(2)MPI结束函数
MPI_Finalize()
最后一个MPI函数调用,使程序退出MPI编程环境。
(3)获取当前进程标识
MPI_Comm_rank(MPI_Comm comm,int*rank)
这一调用返回调用进程在给定的通信域中的进程标识号,有了这一标识号,不同的进程就可以将自己和其他的进程区别开来,实现各进程的并行和协作。
(4)通信域包含的进程数
MPI_Comm_size(MPI_Comm comm,int *size)
这一调用返回给定的通信域中所包括的进程的个数,不同的进程通过这一调用得知在给定的通信域中一共有多少个进程在并行执行。
(5)消息发送
MPI_Send (void *buf,int count MPI_Datatype datatype,int dest,int tag,MPI_Comm comm)
该调用将发送缓冲区中的count个datatype数据类型的数据发送到目的进程,目的进程在通信域中的标识号是dest,本次发送的消息标志是tag,使用这一标志,就可以把本次发送的消息和本进程向同一目的进程发送的其他消息区别开来。
该操作指定的发送缓冲区是由count个类型为datatype的连续数据空间组成,起始地址为buf。
注意这里不是以字节计数,而是以数据类型为单位指定消息的长度,这样就独立于具体的实现,并且更接近于用户的观点。
datatype数据类型可以是MPI的预定义类型,也可以是用户自定义的类型。
(6)消息接收
MPI_Recv(void*buf,int count MPI_Datatype datatype,int source,int tag,MPI_Comm comm,MPI_Status *status)
该调用从指定的进程source接收消息,并且该消息的数据类型和消息标识号和本接收进程指定的datatype和tag相一致,接收到的消息所包含的数据元素的个数最多不能超过count。
接收缓冲区是由count个datatype的连续元素空间组成,由datatype指定其类型,起始地址为buf。
接收到消息的长度必须小于或等于接收缓冲区的长度,这是因为如果接收到的数据过大,MPI没有截断,接收缓冲区会发生溢出错误,因此要保证接收缓冲区的长度不小于发送数据的长度。
如果一个短于接收缓冲区的消息到达,那么只有相应于这个消息的那些地址被修改。
count可以是零,在这种情况下,消息的数据部分是空的。
datatype数据类型同发送调用。
注意:返回状态变量status的用途很广,它是MPI定义的一个数据类型,使用之前需要用户为它分配空间。
在C实现中,状态变量是由至少三个域组成的结构类型,这三个域分别是:MPI_SOURCE,MPI_TAG和MPI_ERROR。
它还可以包括其他的附加域。
这样通过对status.MPI_SOURCE、status.MPI_TAG和status.MPI_ERROR的引用,就可以得到返回状态中所包含的发送数据进程的标识、发送数据使用的tag标识和本接收操作返回的错误代码。
参考文献
[1]陈国良.并行算法-结构.算法.编程[M]. 北京: 高等教育出版社, 2002.
[2]Hau Yee Sit, Kei Shiu Ho, Hong Va Leong. An Adaptive Clustering Approach to Dynamic Load Balancing [C]. Proc. of 7th International Symposium on Parallel Architectures, Algorithms and Networks, 2004: 415-420.
[3]Peter S.Pacheco. Parallel Programming with MPI, Morgan Kaufman Publishers,inc, 1997
[4]都志辉.高性能计算之并行编程技术-MPI并行程序设计[M]. 清华大学出版社, 2001.
[5]洪雄,戴光明,冷春霞.构架Linux环境下基于MPICH的工作站机群[J]. 微计算机信息, 2006, 3-3: 124-126.。