《多处理机系统》PPT课件.ppt

上传人:小飞机 文档编号:4871100 上传时间:2023-05-20 格式:PPT 页数:74 大小:230KB
返回 下载 相关 举报
《多处理机系统》PPT课件.ppt_第1页
第1页 / 共74页
《多处理机系统》PPT课件.ppt_第2页
第2页 / 共74页
《多处理机系统》PPT课件.ppt_第3页
第3页 / 共74页
《多处理机系统》PPT课件.ppt_第4页
第4页 / 共74页
《多处理机系统》PPT课件.ppt_第5页
第5页 / 共74页
点击查看更多>>
资源描述

《《多处理机系统》PPT课件.ppt》由会员分享,可在线阅读,更多相关《《多处理机系统》PPT课件.ppt(74页珍藏版)》请在三一办公上搜索。

1、第七章 多处理机系统,7.1 多处理机系统结构7.2 多处理机的互连网络7.3 多处理机的系统控制7.4 并行处理语言及算法7.5 多处理机的性能7.6 多处理机的系统实例,第一节 多处理机的系统结构,多处理机系统由多台独立的处理机组成,每台处理机都能够独立执行自己的程序和指令流,相互之间通过专门的网络连接,实现数据的交换和通信,共同完成某项大的计算或处理任务。系统中的各台处理机由统一的操作系统进行管理,实现指令级以上并行,这种并行性一般是建立在程序段的基础上,也就是说,多处理机的并行是作业或任务级的并行。从硬件结构、存储器组织方式等区分,多处理机系统有多种分类方法,接下来将逐一介绍,一、硬件

2、结构1、紧密耦合多处理机系统 系统中各处理机相互之间的联系是比较紧密的,通过系统中的共享主存储器实现彼此间的数据传送和通信。,优点:通过共享存储器,处理机间的通信和数据传输速度快、效率高缺点:存在访问冲突,总线带宽限制导致处理及数量不能太多。为每个处理机配置较大的独立cache可以缓解访问冲突问题,但同时cache同步也是较大问题,2、松散耦合多处理机系统 这种系统多由一些功能较强,相对独立的模块组成。每个模块至少包括一个功能较强的处理机,一个局部存储器和一个I/O设备,模块间以消息的方式通信。系统中每台处理机都有处理单元,各自的存储器和I/O设备子系统。,二、存储器组织1、集中式共享存储器系

3、统处理机数目较少的多处理机,各个处理机可以共享单个集中式存储器。在使用大容量Cache的情况下,单一存储器(可能是多组)能够确保小数目处理机的存储访问得到及时响应,对所有的处理器而言是对等的,既每个处理机访问存储器的时间相同,也称为对称式共享存储器多处理机系统(SMPs),这种系统结构也称为均匀存储器访问(UMA)。大容量、多层次的Cache能够大量减少单个处理机对存储器带宽的要求,减少访问时延,减少多个处理机同时读取共享数据时的竞争现象,2、分布式式共享存储器系统,为了支持更多的处理机,存储器不能按照集中共享方式组织,而必须分布于各个处理机。否则由于访问冲突以及总线带宽的限制,当处理机数量很

4、大时,访问延迟就会很大。分布式存储器多处理机由多个独立结构组成,每个节点包括处理机(可以多个)、存储器、输入输出系统和互联网络的接口,各个节点通过互联网络连接在一起,存储器优缺点大部分访问是在节点内的本地存储器中进行的,这种做是增大存储器带宽比较经济的方法缩短了本地存储器访问的时延处理节点之间的数据通信在某种程度上变得更加复杂,且时延也更大,节点之间通信方式共享的地址空间把物理上分开的存储器作为逻辑上共享的地址空间进行统一寻址。消息传递地址空间由多个私有的地址空间组成,这些私有地址空间在逻辑上是分散的,并且不能被远程处理器寻址。节点之间通过发送消息进行数据交换,三、多处理机系统的操作系统多处理

5、机操作系统按照结构来划分,目前有三种类型:主从式(Master-slave)、独立监督式(Separate Supervisor)、浮动监督式(Floating Supervisor)。,1、主从式(Master-slave)由一台主处理机进行系统的集中控制,负责记录、控制其它从处理机的状态,并分配任务给从处理机。优点:硬件和软件结构相对简单缺点:对主处理机可靠性要求很高,当不可恢复错误发生时,系统容易崩溃,此时必须重新启动主处理机。系统灵活性差,在控制使用系统资源方面效率也不高。,2、独立监督式(Separate supervisor)操作系统将控制功能分散给多台处理机,共同完成对整个系统的

6、控制工作。每个处理机均有各自的管理程序(操作系统的内核)。优点:每个处理机都有其专用的管理程序,故访问公用表格的冲突较少,阻塞情况自然也就较少,系统的效率较高每个处理相对独立,因此一台处理机出现故障不会引起整个系统崩溃,缺点:减少了对控制专用处理机的需求,但是实现更复杂每个管理程序都有一套自用表格,但仍有一些共享表格,从而发生表格访问冲突问题,导致进程调度复杂性和开销的加大修复故障造成的损害或重新执行故障机未完成的工作非常困难各处理机负荷的平衡比较困难。,3、浮动监督式(Floating supervisor)作系统中每次只有一台处理机作为执行全面管理功能的“主处理机”,“主处理机”可以根据需

7、要浮动,即从一台切换到另一台处理机。这样,即使执行管理功能的主处理机故障,系统也能照样运行下去;优点:系统可靠性更强,没有单主处理崩溃瓶颈更好的平衡处理机负载缺点:主要表现在系统实现复杂性。,4、与单处理机操作系统比较多进程资源共享访问需要新的进程同步算法多处理机任务调度,需要考虑各处理机负载平衡性,发挥各节点的最大性能存储器访问方面访问冲突仲裁,以及各局部缓存与全局存储之间的同步系统可靠性,使系统具有重构能力,四、多核处理器单个芯片上的多个处理器所构成的处理器系统,即多核处理器。多核处理器的思想是将大规模并行处理器的处理器集成到同一个芯片内,由各个处理器并行执行不同的进程。IBM,Intel

8、,AMD等芯片公司均推出可给予多核的微处理芯片系统,第二节 多处理机的互连网络,多处理机系统中,包含多个处理机以及完成处理机间通信、协调所需的多个功能部件,势必涉及到处理机间、处理机和功能部件间的相互连接问题。互连网络是多处理机系统的重要组成部分,它对系统的性能指标有决定性的影响。,一、互连网络的基本概念互连网络是指由开关元件按照一定的拓扑结构和控制方式构成的网络,用以实现多处理机系统内部多个处理机或多个功能部件之间的相互连接。互连网络具有三大要素,即结点间互连拓扑(包含连接通路)、开关元件和控制方式。互连函数表示法如果将互连网络看作一个黑盒子,盒子的输出端口与输入端口间就存在一定的位置变换关

9、系,这就是互连函数。函数表示法输入为x=xn-1 xn-2 x1 x0为端口编号的二进制值表示。互连函数为f(xn-1 xn-2 x1 x0),表格表示法通过输入输出对应表示,用表格的形式列出对应端口间的对应关系表。其表示形式为:在符号框内,上一个元素与下一个元素分别对应输入与输出的连接关系。,图形表示法用连线表示映射关系,通过图形将对应的端口连接起来表示。如下图7-8所示,就将各输入端与输出端端口连接情况直观的表示出来。,二、互连网络的特性网络规模:也就是网络中所连接的结点的个数。该特性可以用于衡量网络可扩展性的一个方面结点度:与结点相连接的边的数目称为结点度。结点度分入度和出度。入度指进入

10、结点的边数。出度指从结点中出来的边数。距离:任意两个结点间相连的最少边数。距离与两结点间最快的信息传输速度是成正比的。,网络直径:网络中任意两个结点间距离的最大值。也即是最长距离,它和网络结构中最慢的传输速度成正比,可以在一定程度上衡量网络结构的速度指标。等分宽度:在将某一网络切成相等两半的各种切法中,沿切口的最小通道边数。对称性:从网络中的任何一个结点看,拓扑结构都是一样的。具有对称性的网络称为对称网络。,三、互连网络的类型以互连特性为特征,可以把互连网络分为静态互连网络和动态互连网络两类1.静态互连网络。(1)使用节点和边来表示静态互连网络五要满足网络每个结点的相连边数,就是结点度要小,且

11、在各结点处最好都相等,同时与网络的大小无关;在任意两个结点间沿着最短路径通信所经过边数的最大值要小,也就是网络直径要小,且随结点数目增多而缓慢增大;对称性要好,以达到信息流量分布均匀;各结点编址合理,从而实现高效路径算法;有较高的路径冗余度,以满足坚固性要求;增量扩展性要好,即每次只扩展一个或少数几个结点,仍能保持原有互连拓扑特性,(2)静态互连网络形式:一维的有线性阵列结构;二维的有环形、星形、树形、网格形等;三维的有立方体等;三维以上的有超立方体等。线性网:一种一维的线性网络,其中N个结点用N1个链路连成一行。如(a)所示,在这种结构中,内部结点度为2,端结点度为1,网络直径为N1。环形网

12、:用一条附加链路将线性阵列的两个端点连接起来而构成。可以单向工作,也可以双向工作。如图(b)所示。在这种结构中,结点度为2,单向环的网络直径为N,双向环的直径为N/2。,树形网:一般说来,一棵k层完全平衡的二叉树有N=2k-1个结点。最大结点度是3,直径是2(k-1)。结构如图(c)所示。特例之一是星型,一种结点度为N-1,直径为常数2的2层树。结构如图7-9(d)所示。另一种是二叉胖树(e),其特点是结点度从叶子结点往跟结点逐渐增加,从而缓解一般二叉树根结点通信速度高的矛盾。网格形网:是一种比较流行的网络结构,有各种变体形式。一般网格网,N=nk 个结点的k维网络的内部结点度为2k,网络直径

13、为k(n-1)。边结点和角结点的结点度分别为3或2。如图(f)所示。立方体网:n维立方体由N2n个结点,分布在n维上,每维有两个结点,每个结点的度为n,网络直径为n。如8个结点的23立方体,其结点的度为3,直径为3,如图(g)所示。超立方体网采用交换函数,结点度为n,直径也为n。,2.动态互连网络静态互连网络一旦设计成功,就不能改变。为了达到多用或者通用的目的,就要采用动态互连网络(1)基于总线的互连网络,两个或更多的CPU以及一个或者更多的内存模块都使用同一条总线通信。当某个CPU想读取内存时,它首先检查总线是否被使用。如果总线是空闲的,CPU就把字地址放在总线上,当然还需要一些控制信号,然

14、后等待内存把它需要的内存字放在总线上单总线形式:形式简单,成本低,系统上增减模块方便,但其吞吐率是固定有限的,且对总线的失效敏感。而且,随着处理机个数增加,访问总线冲突的概率会随之增大,从而导致系统效率急剧下降,多总线形式:将多条总线连接到多个处理机是对单总线的自然扩展。多总线多处理机系统具有高可靠性和易扩展性。单条总线发生故障时,在处理机和模块间仍有无故障的通路,然而,当总线总数少于存储器模块数时,总线的竞争将会增加。这时需要由系统总线总裁器进行裁决,以确定哪个请求源可以使用系统总线。,(2)基于交叉开关的互连网络将主存分为多个模块并在CPU和主存模块间提供更多的通路,这样不但可以增加带宽,

15、也可并行处理多个请求。连接n个CPU和i个内存模块的最简单的电路就是交叉开关,每条水平线(输入线)和垂直线(输出线)的交点都是一个交叉点。每个节点可以处于打开和关闭状态。交叉开关网络是一种无阻塞的网络,CPU不会因为某些交叉点或者线路被占用无法与内存模块建立连接(假设内存模块是可用的)。而且,建立连接时不需要事先规划。即使已经建立了多个任意的连接,仍然有可能在剩下的CPU和剩下的内存之间建立连接交叉网络的缺点是节点需要n2个,当节点数量比较大(n1000)时候不可能实现的。,3.多级互连网络为了实现任意处理机间的互连,引入了多级互连网络的概念。所谓多级互连网络,就是指由多级开关按照一定的方式进

16、行互连,组合而成的一个复杂的网络系统,决定多级互连网络特性的主要因素有三个方面:交换开关、拓扑结构和控制方式。交换开关是组成互连网络的基本单元。通常一个ab交换开关代表有a个输入和b个输出。每个输入可与一个或多个输出相连。最常用的是二元开关,具有直通和交换功能。四元开关则在此基础上,增加了上播和下播功能。拓扑结构指前一级交换开关的输出端与后一级交换开关的输入端之间的连接模式。通常,可以采用互连函数实现拓扑结构。,控制方式是对各个交换开关进行控制,通常分如下三种控制方式:级控制,即同一级交换开关通过同一个控制信号控制;单元控制,即对每个交换开关进行单独控制;部分级控制,对不同的级采用不同数量的控

17、制信号。例如,第i级使用i1个控制信号控制(0in1)。显然,部分级控制是前两种方式的折中。同一个多级网络分别采用不用的控制方式,可以构成三种不同的互连网络,多级互连网络实例多级立方体网络通常是由三种互连函数的3个单级立方体网串接起来形成的,它的开关全部采用二功能开关。对一个NN的n级立方体网络,其级数n2N,每级有N/2个开关,全部开关数为nN/2。采用交换函数构成拓扑结构,各级分别采用E0、E1、En交换函数。当所有开关都直通时,实现恒等变换。采用三种不同的控制方式,可以构成三种不同的互连网络:采用级控制可以构成STARAN交换网;采用部分级控制,可以构成STARAN移数网;采用单元控制可

18、以构成间接二进制n方体网。,以N=8为例,n2N3,即分三级,开关总数为38/212个,如图7-14所示。当采用级控方式时,具有交换功能。例如当02三级级控信号为101时,即第0级和第2级中所有开关状态处于交换状态,第1级中开关处于直通状态,输入和输出的对应关系为0-5,1-4,2-7,3-6,4-1,5-0,6-3,7-2。对于其它几种级控信号,也将会形成不同的输入和输出的交换连接。当采用部分级控时,网络实现移位功能。比如第0级用级控信号“0”,第1级中的开关均使用部分级控信号“1”,第2级中的开关I、J信号用信号“1”,开关K、L用信号“0”,则实现移2(mod 8)的功能。当采用单元控制

19、时,对各个开关进行单独控制,可以实现包括交换置换、移数置换在内的常用函数置换。,第三节 多处理机系统的系统控制,多处理机系统中,每台处理机都能够独立执行自己的程序和指令流,但是,一个进程应该分配到哪个处理机上运行是由什么决定的呢,运行不同进程的处理机间又是怎样进行通信的呢?,1.多处理机系统的调度调度算法的一般目标是:使用最少的处理机、在最短的时间内完成并行程序的执行任务下图是3个处理机P1、P2、P3上执行5个任务T1T5的任务时空图,各个任务执行时间分别为7、6.5、2、2、2。结合该图来说明关于任务调度的参数,(1)调度参数任务流时间完成任务所需要的时间定义为任务流时间,例如完成任务T1

20、共需要 5+2=7 时间单位调度流时间一个调度流时间是调度中所有任务流的时间。图中的调度流时间=T1流+T2流+T3流+T4流+T5流时间=7+6.5+2+2+2=19.5(时间单位)。,平均流平均流等于调度流时间除以任务数。最小平均流时间表示任务占用处理机与存储器等资源的时间很短,不但使任务的机时费用降低,还使系统有更充裕的时间处理其他任务。这样,最少平均流时间就是系统吞吐率的一个间接度量参数。处理机的利用率处理机的利用率等于该处理机上任务流之和除以最大有效时间单位(本例为7.0)。P1、P2、P3的利用率分别为0.93、1.00和0.86,空闲的时间分别为0.5、0.0和1.0,忙的时间分

21、别为6.5、7.0、6.0且均为各处理机上的任务流之和。处理机平均利用率=0.93+1.00+0.86)/3=0.93。,(2)调度算法模型调度模型一般分为静态的确定性模型和动态的随机型模型静态确定型模型要求在求解问题前就已知每个任务执行所需的时间以及系统中各任务间的关系。这种调度算法的设计比较简单,但如果事先不能准确估计每个任务的执行时间及任务间的关系,该调度算法的效率就不高,动态随机型模型在运行过程中对资源进行动态分配,一般用随机分配方式或巡回方式,将当前任务分配给空闲的处理机执行(3)常见调度策略轮转法多级轮转法组调法随机函数法,2.多处理机的进程通信多处理机进程间通信一般是通过共享内存

22、的方式进行通信。其中最关键的就是不同处理机之间cache的不一致问题。由此引入cache一致性协议(1)监听协议每个含有物理存储器中数据块副本的Cache还要保留该数据块共享状态的副本,但是不集中地保存状态。Cache通常可以通过广播媒介(总线或交换机访问),所有的Cache控制器对总线进行监听,来确定它们是否含有总线或交换机上请求的数据块的副本。任何可以向所有处理器广播Cache缺失的通信媒介都可以用来实现基于监听的一致性。,写无效协议在执行写操作时使其它cache副本无效,处理器写数据项之前保证该处理机能独占地访问数据项,写更新协议在写入数据项时更新该数据项的所有副本。因为写更新协议必须将

23、所有的写操作广播给共享Cache,从而需要更大的带宽。因此,目前极大多数的对称式共享存储器多处理机都选择执行写无效协议。,(2)目录协议把共享物理存储器的共享状态存放在一个地方,称为目录。目录协议保存每个Cache数据块的状态。目录中的信息包括哪个Cache拥有该块的副本,是否处于无效状态等全映象目录目录项中有N个处理机位和一个重写位。处理机位表示相应处理机对应的Cache块的状态。重写位为“1”,且只有一个处理机位为“1”,则该处理机可以对该块进行写操作,有限目录:每个目录项的指针数固定。表中每项的标志位少于N个。因此,限制了一个数据块在各Cache中能存放的副本数目。全映象目录表和有限目录

24、表都是集中地存入在共享的主存之中,因此需要由主存向各处理机广播。链式目录把目录分散存放在各个Cache中,主存只存有一个指针,指向一台处理机。通过维护个目录指针链要查找所有放有同一个信息块的Cache时,先找到一台处理机的Cache,然后顺链逐台查找,直到找到目录表中的指针为空时为止。它不限制共享数据块的拷贝数目,又保持了可扩展性。指针的长度以处理机数目的对数关系增长,Cache的每个数据块的指针数目与处理机数目无关。,第四节 并行处理语言及算法,在多处理机系统中,并行性存在于不同的层次上,充分开发其并行性有较大难度,为此,必须从系统结构、操作系统、算法、语言、编译各方面来统筹协调地开发。也就

25、是说,在多处理机设计成功之后,还必须进行并行开发。本节将简要介绍多处理机系统设计在并行性处理中遇到的挑战以及所采用的并行性处理技术。,1.并行处理遇到的挑战程序可获得的并行度有限以及相对较高的通信开销,成为并行处理应用的障碍。这可以用Amdahl定律解释,我们通过下面的例题来看。Amdahl定律是,例题1:假设要用100个处理机获得80倍的加速比,那么原来的计算中串行部分该占多大比例呢?假设程序仅有两种执行模式:一种是使用所有处理机的并行模式,另一种是仅利用一个处理机的串行模式。在这种简化下,改进部分的加速比就简化为处理机个数,而改进模式所占的比例就是在并行模式中花费的时间。代入上面的公式简化

26、后得到并行部分所占比例0.9975,例题2:假设一个应用程序在一个32个处理机的多处理机系统上运行,该处理机访问一个远程存储器需要200ns。对于这个应用,假设除了涉及通信的存储器访问外,所有访问都命中本地存储系统。执行远程访问时处理机会阻塞,处理机的时钟频率为2GHz。如果基本CPI是0.5,那么多处理机在没有远程访问时比只有0.2的指令涉及远程访问时能快多少?,首先我们来计算CPI,有0.2远程访问的多处理机的CPI是 CPI=基本CPI远程请求率远程请求开销 而远程开销是 经过计算可以得到CPI0.5+0.8=1.3全部为本地调用的多处理机将会快1.3/0.5=2.6倍。实际的性能分析会

27、更加复杂,因为有些非远程访问可能会在本地存储器系统层次中缺失,并且远程访问的时间也不一定会是固定值。,并行度低和远程通信时延太长,是使用多处理机的两个最大挑战。只有在软件中采用更好的并行算法才能克服并行度低的问题。要减少长时间远程访问的时延,可以通过系统结构实现,也可以通过程序员实现。例如,在硬件上缓存共享数据,或者在软件上重新构造数据就能增加本地访问,因而也就减少了远程访问的频率。还可以使用多线程或者预取来减少时延的影响,2.并行编程模型蕴式并行编程模型:程序员不显示地说明并行性,而是让编译器和运行支持系统自动加以开发的编程模型。其最常用的方法是对顺序程序实行自动并行化,由编译器对顺序程序的

28、源代码进行相关性分析,然后使用一组程序变换技术将顺序代码转换成自然并行Fortran代码。数据并行模型:将数据分布于不同的处理单元,这些处理单元对分布数据执行相同的操作。数据并行程序使用预先分布好的数据集。运算操作之间进行数据交换操作。数据并行操作的同步是在编译而不是在运行时完成的。从本质上讲,数据并行编程具有单控制线程且能在数据集一级开发大规模并行性。,消息传递模型:程序中不同进程之间通过显式方法(如函数调用、运算符等)传递消息来相互通信,实现进程之间的数据交换、同步控制等。消息包括指令、数据、同步信号等。因此,程序员不仅要关心程序中可并行成分的划分,而且还需关心进程间的数据交换。消息的发送

29、、接收处理将增加并行程序开发的复杂度。但是它适用于多种并行系统,如多处理机、可扩展机群系统等,且具有灵活、高效的特点。共享变量模型:限定作用范围和访问权限的办法,对进程寻址空间实行共享或限制,即利用共享变量实现并行进程间的通信。为了保证能有序地进行IPC,可利用互斥特性保证数据一致性与同步。共享变量模型与传统的顺序程序设计有许多相似之处。程序员只需关心程序中的可并行进程,而无需关心进程间的数据交换问题。共享变量的数据一致性、临界区的保护性访问由编译器与并行系统来维护。共享变量模型具有编程简单、易于控制的特点,但在实现时则会导致系统开销增大。,3.并行语言(1)设计全新的并行语言可以完全摆脱串行

30、语言的束缚,从语言成分上直接支持并行,这样就可以使并行程序的书写更方便、更自然,相应的并行程序也更容易在并行机上实现缺点:没有统一计算机模型 虽有并行语言,但每一个被普遍接纳,(2)扩充已有的串行语言在现有的程序设计语言的基础上扩展出能表示并行进程的语句。若用原来的串行编译器来编译,标注的并行扩充部分将不起作用,仍将该程序作为一般的串行程序处理。若使用扩充后的并行编译器来编译,则该并行编译器就会根据标注的要求,将原来串行执行的部分转化为并行执行,(3)提供并行库为已有的串行语言提供并行运行库。只需要在原来的串行程序中加入对并行库的调用,就可以实现并行程序设计。如现在流行的MPI(消息传递接口)

31、并行程序设计就属于这种方式。(4)针对以上的方式实现并行语言,一般采用下述集中编译器方法完成并行语言的编译处理新语言编译器预编译处理并行函数与类库并行化编译系统,4.并行算法并行算法是指适合在各种并行计算机上求解问题的算法,它是一些可以同时执行的进程的集合,这些进程之间相互作用,协调处理,从而实现对给定问题的求解(1)并行算法的分类根据运算的基本对象,并行算法可以分为数值并行算法和非数值并行算法根据进程之间的依赖关系,并行算法可以分为同步并行算法、异步并行算法和分布式并行算法,(2)并行算法的设计方法PCAM设计方法任务分解(Partition):将整个计算问题分解成一些小的子任务,其目的是尽

32、量创造并行执行的机会。通信设计(Communication):确定各子任务执行中需要交换的数据和协调子任务的执行所需要传递的消息,并由此检测上面分解方式的合理性,任务组合(Agglomeration):按算法在实际机器上执行的性能要求和实现算法的代价来考察前两个阶段的结果,将一些小的任务组合成较大的任务以减少通信开销和提高性能。处理机映射(Mapping):将每个子任务分配给一个处理机去完成,目标是最小化全局执行时间和通信开销,最大化处理机利用率。,(3)效率分析并行算法的执行时间通常包含两个部分:第一部分是通信时间(tr),即数据从一个处理机经由互连网络或共享存储器到达另一个处理机所需的时间

33、;第二部分是计算时间(tc),即数据在处理机内进行算术运算,逻辑运算等所需的时间并行算法的可扩展性主要是指处理机数目对算法效率和算法执行时间的影响。我们把处理机数目增长速度看成是问题规模增长速度的函数,并把这个函数称为并行算法的等效率函数(Iso-Efficiency,简单记为IsoE(p))。利用这个等效率函数,我们可以通过简单的表达式来判断并行算法的可扩展性。,记问题规模为n,处理机个数为P(n),则加速为 而算法的效率可以表示为 为了保持算法的效率不变,必须使得.这样,在得到 和 后,通过简单的变换就可以获得等效率曲线,并由此判断算法的可扩展性,(4)并行性分析数据相关性分析数据相关:若

34、程序段P1赋值号左边的变量出现在程序段 P2赋值号右边的变量集中,称P2数据相关于P1。如:P1:A=B+CP2:D=A*E其中,变量A是导致程序段数据相关的原因,为了保证程序执行的语义正确性,程序段P2必须在P1中求出A的值才能执行。显然,P1和P2不能并行执行。,数据反相关:若程序段P2赋值号左边的变量出现在程序段 P1赋值号右边的变量集中,称P1数据反相关于P2。例如:P1:A=B+CP2:C=D*E其中,P1通过变量C是反相关于P2,程序段P1必须读出变量C后程序段P2才能执行。显然,P1和P2不能并行执行。数据输出相关:若程序段P1和P2赋值号左边的变量相同,则称P2数据输出相关于P

35、1。例如:P1:A=B+CP2:A=D*E其中,由于两个程序段赋值号左边有相同变量A,且程序段有先后之分,为了保证语义的正确性,必须保证程序段P1和先写入A,然后才能允许P2写入A。,程序并行性检测程序并行性检测主要是检测程序中是否存在上述相关,常用的方法是伯恩斯坦(Bernstein)准则。在每一个程序的执行过程中,通常需要使用输入和输出两个变量集。若用Ii来表示程序段Pi所要读取主存的变量集,Qi表示所要写入主存的变量集,那么,程序段P1和程序P2能够并行执行的伯恩斯坦准则为:I1Q2,即程序段P1的输入变量集和程序段P2的输出变量集不相交;I2Q1,即程序段P2的输入变量集和程序段P1的

36、输出变量集不相交;Q1Q2,即程序段P1的输出变量集和程序段P2的输出变量集不相交。,第五节 多处理机的性能,1.任务粒度任务粒度是衡量软件进程所含计算量的尺度。最简单的表示粒度的方法是一个(程序段)中含有的指令数目。颗粒规模一般用细、中、粗粒度来描述。,(2)并行机模型基本模型通信开销线性增加的模型完全重叠通信的模型具有多条通信链的模型,第六节 多处理机系统实例,1.CRAY T3E系统,T3E系统具有8到2176个处理单元(PE)。每个处理单元具有64 MB到2 GB的DRAM和一个具有六个方向的、每个方向的有效带宽为480 MB/s的路由单元。每个处理单元间由一个三维双向环网互联以提供快

37、速通信,并由一些千兆环通道提供I/O设备的连接T3E系统的每个处理单元中有一个DEC Alpha21164(EV5)微处理机。其外部是一个shell电路,包括一个本地主存、一个控制芯片和一个路由芯片。系统(Shell)逻辑时钟为75MHz,而Alpha21164处理器时钟为300MHz,其峰值速度可达600Mflop/s。本地主存提供64MB到2GB的容量以及1.2GB/s的峰值带宽。路由芯片有7个双向端口,l个连向PE,其余6个是连到三维环网的6个链接上。T3E的处理单元没有主板级高速缓存,而是使用21164处理器中的高速缓存。,2.SGI Origin 2000系列服务器,Origin 2

38、000系统采用了CRAY Link多重交叉开关互连技术,用于连接处理机、存储器和I/O设备该系统结构由结点、I/O子系统、路由器和互联网络构成,每个结点可安装一个或两个MIPS R10000微处理器(内含第一级高速缓存,即L1 Cache)、第二级高速缓存(L2 Cache)、主存储器、目录存储器及Hub等。Hub用于连接微处理器、存储器、I/O和路由器等。Origin存储器系统中,每个结点的主存储器容量为4GB。结点的Hub内含4个接口和交叉开关。存储器接口能双向传送数据,最大传输率为 780 Mbps,I/O和路由器接口各有两个半双工传送端口,最大传输率为2780 Mbps,即1.56Gbps。,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 生活休闲 > 在线阅读


备案号:宁ICP备20000045号-2

经营许可证:宁B2-20210002

宁公网安备 64010402000987号