高性能计算机技术新进展及前沿热点

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

高性能计算机技术新进展及前沿热点
作者: 发布人:网络教研室?张常泉 来源:无 访问次数: 发布时间:2010-3-25 17:14:39
【打印文章】 【收藏本文】 【推荐本文】 【关闭窗口】


一、高性能计算机发展现状

1.从“全球超级计算机500强”看高性能计算机发展现状

全球超级计算机500强(TOP500)是高性能计算机领域的权威性评测结果。该评比一年举行两次,从1993年至今已经进行了22届。评选活动由国际上几个著名的国家实验室和大学联合完成。评选的方法是通过运行一个标准测试程序――LINPACK得到的实际性能结果进行排名。虽然不是所有的高性能计算机都参加TOP500的评测,LINPACK也不能代表所有实际的高性能计算应用特征,但TOP500排名一直是高性能计算机发展现状的缩影。
表1是2003年11月16日发布的最新TOP500结果的一部分。在TOP500的列表中,排名第一的仍然是日本在2002年发布的地球模拟器,实际性能达到每秒35万亿次浮点运算,并且领先第2名2倍以上。不过排在前10名的其他计算机都来自美国,整个500强是85%以上是美国公司制作的,并且美国在TOP500的装机数中共占248台,显示了美国在高性能计算机制造和应用方面的实力。日本、德国、英国各有35台左右的系统入选,属第二梯队。中国共有9台系统入选,其中由中国联想公司研制的深腾6800以每秒4万亿次排名第14位,给国际高性能计算机带来了不小的震动。

从表1可以看出,传统的高性能计算机制造厂商如IBM、HP、NEC、Cray等在2003年并没有突出的表现,而基于开放源码的LINUX机群技术的LINUX NETWORX公司,以及传统的PC机制造商如戴尔、联想却进入了顶尖的行列。但是,最令人吃惊的还是排名第3位的系统X是由美国弗尼亚工学院的一群师生采用商用部分,花了4个月左右的时间制造出来的。高性能计算技术真的已经成熟到了象PC机一样业余人员就可以组装的地步了吗?为什么2003年传统的高性能计算机制造厂商在“沉默”呢?
事实上,高性能计算机体系结构的发展正处于一个技术发展S曲线的平滑期,上一次结构变革带来的发展动力已经趋向平缓和成熟,而下一波技术突破正在酝酿之中,这一次变革很可能比上一次更为激烈。
在2004年,仍会有基于传统技术的更高性能的系统推出,如美国的ASCI P将达到每秒百万亿次,中国的十万亿次曙光4000A将落户上海超级计算中心。日本的“宇宙模拟器”也在加紧研制中。但人们更为关心的是,下一代高性能计算机系统将会是什么?

2.高性能计算机发展面临的主要问题

在集成电路工业界有一个著名的

“摩尔定律”,即半导体芯片集成度和运行频率每18个月左右翻一番。摩尔定律在提出后的近30年与现实发展惊人的一致,并且预计还可能有效持续到2020年左右。这一定律深深地影响到高性能计算机体系结构的发展。现在一片最先进的微处理器处理能力很可能超过10年前的一台高性能计算机。
从20世纪80年代中期开始,由多个微处理器组成的并行化高性能计算机开始取代传统的向量机,成为发展的主流。这一趋势从对称多处理机(SMP)、大规模并行处理机(MPP)一直发展到机群(Cluster)系统。近10年来,高性能计算机系统的性能增加了500倍左右,而其中摩尔定律的贡献就占了40倍以上。机群系统是以这种以微处理器为核心的设计趋势发展到了极致的产物。
机群系统是由多个以微处理器为核心的计算机节点通过高速网络互连构成。机群的节点一般是可以独立运行的商品化计算机,高速通信网络设备近年来也已经逐渐商业化,机群使用系统软件则多以开放式软件为基础。由于普遍采用标准化、商品化、开放式构件,机群系统具有其他高性能系统不可比拟的性能/价格比优势。同时伴随着摩尔定律的发展,机群系统的潜力还可以得到进一步发挥,具有良好的前景。在TOP500中,机群系统已经占了42%,前10位中就有7个是机群系统,中国的曙光、联想、浪潮等公司也相继推出了机群结构的高性能计算机并已经占有国内机群市场相当的份额。
这种发展趋势使得有人认为至少在摩尔定律失效之前,机群结构就是高性能计算机的终结,制造更高性能的计算机系统只需要将机群系统的规模进一步扩大就可以了。
但是机群系统正是在可扩展能力上遇到了麻烦。机群系统的节点本身并非为构造大规模并行处理系统而设计的,因此节点完成单位计算能力所需要的电能、空间和散热量等都比较大。当节点数在几百到几千的规模时,这些因素的累积效应已经非常突出。如果进一步扩大规模,这些原本的次要因素将成为主要问题。一个典型例子是日本的地球模拟器设计了专门的三层机房、专用通风系统,而且还专门配备了一个发电厂
机群系统扩展的另一个问题是其可靠性和可管理性。众所周知,并行系统的可靠性和节点数成反比:节点的数量提高10倍,可靠性就会下降10倍。原来一个系统可以连续运行1个月不出故障,现在3天就可能出一次故障。如果一个计算任务需要持续运行1星期以上,则在这样的系统上根本就无法完成。
因此,研制更大规模并行系统或者更有效利用资源的系统成为当前高性能计算机系统研究的一个主要方向。在2003年

超级计算机国际会议上有一个讨论组的主题是“10万个处理器的挑战”,这种规模对机群系统来说是不可想象的。

3.应用对高性能计算机的需求和高性能计算机发展对应用的推动

虽然目前世界上最快的高性能计算机系统已经达到40万亿次/秒,但是企业界已经开始讨论下一个里程碑―――PETAFLOPS(每秒千万亿次浮点运算)。这种对高性能计算机性能的执着追求绝不是研究人员自身的冲动,而是具有非常现实的需求。
探求复杂的物理世界与人类社会本身的应用一直是驱动计算机和计算科学发展的动力。近年来,科学研究方法已经从传统的理论分析和实验分析逐步向计算分析过渡。一些复杂问题的研究已经很难通过实验方式进行,或者是因为系统本身过于庞大和复杂而根本无法实验,如全球气候模型;或者是因为成本过高,进行大量实验不现实,如燃烧过程;或者是实验活动自身受到限制,如核物理模拟等。对这些问题的研究构成了对计算能力永无止境的追求。相比之下,摩尔定律的发展远远不能满足应用的需求。
以生物计算为例,目前的亿万次计算机,大概可以模拟1万个原子规模的酶催化反应;未来的千万亿次计算机,可以模拟10万个原子规模的新陈代谢过程;即使计算能力再翻1000倍,达到每秒一百亿亿次,也刚刚能模拟DNA蛋白质折叠的初级阶段,不到1个微秒的物理过程。因此,应用对计算能力的需求远远超出现有高性能计算机的能力。
另一方面,随着高性能计算机性能的提高、价格的降低,高性能计算已经从传统的满足科研和国家战略需求走向更广泛的行业应用,成为其他领域发展的关键性支撑技术之一。已经有越来越多的经济部门使用高性能计算机,如石油勘探、机械设计、电气工程、金融分析、生物制药及材料分析等。近年来机群系统的普及进一步加强了这一步伐。象PC机的普及带动了信息化一样,高性能计算机的普及将有可能促进科学和技术研究方法上的进步,高性能计算机将变成高科技发展不可或缺的工具。如果说能否制造高性能计算机反映一个国家计算机领域的研发实力,那么能否用好高性能计算机则反映一个国家的综合科研实力。遗憾的是,除石油、气象等少数领域外,中国产业界对高性能计算机的应用远远落后于西方国家。可以说,中国高性能计算机的应用水平与西方的差距比起设计能力的差距要大得多。
高性能计算机的普通反过来又对其自身发展提出了新的要求。在不强求高峰值和超大规模的前提下,面对多层次多粒度的具体应用需求,如何相应提供最合适的性能/价格比,

如何更有效地优化应用问题从立项到完成的整个过程等都有待研究。
总之,无论在深度和广度上,高性能计算机的发展都面临着巨大的需求和挑战


二、高性能计算机体系结构的研究热点 

1.千万亿次计算机体系结构研究
目前,世界上最快的超级计算机实际计算速度是每秒35万亿次。下一个挑战是1Petaflops,即千万亿次计算。预计千万亿次计算机将由1万至100万个处理器组成。至于采用何种体系结构和构件技术,谁将制造出第一个千万亿次超级计算机,现在还是一个悬念。

到2005年,美国IBM公司将研制出新型超级计算机“蓝色基因L”(Bluegene /L)。“蓝色基因”是IBM公司在2000年启动的一个历时5年的研制项目,项目总经费5亿美元,目的是最终制造出用于生物计算的千万亿次超级计算机。“蓝色基因L”是该项目中的第一个系统,预计峰值计算速度为360万亿次。蓝色基因的设计中没有采用传统机群系统中高功耗的高端处理器,而是采用了低功耗集成芯片。虽然每个处理器性能并不很高,但是可以通过增加系统中的处理器数量来达到较高的峰值计算能力。蓝色基因L将有6万多个节点,而计划中的蓝色基因C处理器个数甚至可能达到100万个。

2003年11月,IBM公司发布了蓝色基因的一个初步成果--在一个不到1立方米的机箱内可容纳1024个处理器的超级计算机。虽然只有目标规模的1/128,但这台高密度计算机已经具有每秒1.4万亿次的计算能力,在Top500中排名第73位。IBM将这个计划的最终系统定名为蓝色基因P,预计要到2006年以后推出。

美国斯坦福大学的超级计算机Merrimac计划也是面向千万亿次计算的研究之一。该方案尝试采用专门设计的“流式”(streaming)处理器。一个流式处理器节点集成了128个1GHz的浮点处理单元,8192个节点就可以达到2PetaFlops,而预计成本只有2000万美元。流式技术的思想来源于游戏机图形处理器设计。其基本思想是现在集成电路的发展使计算逻辑本身的成本大大降低,而真正造成高成本的是数据传送的带宽。因此应该集成更多的计算单元以便充分利用有限的带宽。流式结构需要对应用程序进行专门的改写和优化。

美国NASA支持的HTMT(混合技术多线程)项目可以说是历史上最早、最激进的千万亿次计算机路线。HTMT试图避开半导体技术的摩尔定律,采用超导逻辑、光交换、光全息存储、智能存储器等各种全新技术,其采用超导的核心处理单元频率可达100GHz,而主要设计挑战是能够满足这样高速处理器的存储体系。HTMT最初的策划始于1995年,原计划在2006年左右达到1PetaFlops,但此计划研制费用极高,技术风险大,目前看来

胜出的可能性已不大。

随着专用集成电路设计的普及,为某种应用专门设计的超级计算机的研制也逐渐在高性能计算领域占据重要地位。专用计算机可以针对应用算法特性进行优化设计,人而更有效地完成特定的计算任务。如日本RIKEN高性能计算中心研制的分子动力学模拟专用计算机MD-GRAPE系列中的MDM峰值速度甚至超过当前最快的通用计算机--地球模拟器。而其后续研制中的用于分析蛋白质分子作用的专用机“蛋白质探索者”(Protein Explorer)很可能将成为世界上第一个千万亿次量级的系统。

中国目前还没有自己的千万亿次计算机研究计划,相关研究有可能在“十一五”期间启动。

2.网格和高性能计算机

网格(grid)是近年来计算机体系结构发展的一个重要方向,其基本思想是通过因特网进行资源共享和协同工作。目前连接Internet的计算机已经达到1亿台以上,通过因特网可能达到的聚合计算潜力是不可估量的。国际上已经有Globus等组织为网格环境制定标准和参考实现。更多的研究人员和企业不断投入到这个研究热潮中来。中国的国家高性能计算环境,教育科研网格等项目也开始进入实施阶段。

网格最原始的设想是将分散在各地的高性能计算机连接起来,形成强大的综合计算能力。从这个角度看,网格技术有可能成为实现Petaflops的另一条途径。但是,用网格技术实现Petaflops仍需要一些关键技术的突破:一方面,互联网连接的速度和带宽仍有待提高,另一方面,有效的网格体系模型和计算模型尚待建立。传统的并行程序模式不能直接在这种分散的环境中有效使用。如何使科学计算高效使用网格的计算能力是当前一个主要研究方向。中国国家重大科研计划“以网络为基础的科学活动环境”就是朝这个方向的努力。至少在短期内,网格计算还不能取代高性能计算机系统的研制以满足应用的需求。

与此同时,网格计算的关键--资源按需共享的思想在其他应用领域迅速得到应用。具有资源共享、动态交互与集成等特征的数据与信息网格,可以为各种应用系统提供统一的开发和使用平台,已经开始成为网格技术研究与发展的主要方向之一。网格技术已经逐渐和高性能计算技术分化开来,形成一个独特的领域。其中计算网格和为一种廉价、易得的计算资源,受到应用科学家及普通用户的广泛关注与试用,向成为高性能计算机系统的使用门户方向发展。

网格化的思想也渗透到高性能计算机体系结构的设计之中。中国国家智能计算机研究中心提出了“网格化计算机”的概念,其核心思想是将高性能计算机的部件也变为一种网络化的

资源或称网格零件,如网格处理器、网格存储、网格终端、网格路由器等等。这些网格零件可以根据应用的需求动态地组成一个高性能计算机系统。这样的系统将不仅仅是“计算机通过网络连接起来”,而是要成为真正意义上的“网络连接起来的计算机”。传统意义的独立的计算机将不复存在。

3.美国的高生产率计算系统研究计划及其影响

就在几年前,美国的高性能计算机界还一度对机群/MPP系统过于乐观,认为短期内高性能计算机结构不再需要大的变化。以美国能源部的ASCI计划为代表的一系列庞大的机群系统(包括仍排名第2的ASCI Q)就是这一趋势的代表。但是,2002年日本的地球模拟器系统取代美国的超级计算机系统获得TOP500第一名之后,美国终于认识到传统的机群/MPP结构并不是HPC体系结构的终结。美国国防部在2002年启动了高生产率计算系统(HPCS)计划。

HPCS计划的主要目标是“填补当前基于20世纪80年代后期技术的高性能计算和未来量子计算技术之间的高端计算”空白。其研究目标已经不仅仅是千万亿次系统,而是希望确定未来10年甚至20年的高性能计算机体系结构。整个计划分三个阶段:第一阶段为概念评估阶段,由一些公司和大学分别提出各自的技术路线和建议书,到2003年7月该阶段已经基本完成,CRAY、IBM、SUN正式入选第二阶段;第二阶段到2006年,为系统和关键技术评估阶段,由三家公司分别联合学术单位进行各自关键技术研究,并研制样机;第三阶段到2010年,为研发和系统实现阶段,将制造两套全规模的系统。

目前三家公司的方案各有特色,CRAY公司的CASCADE系统仍基于传统的向量处理机,重点优化全局共享内存和互联技术;IBM的PERCS系统以IBM的POWER多核心处理器技术为基础,强调系统动态地适用应用的需求;SUN公司的HERO系统最具特色:基于一种全新的不需要连线和焊接的直接芯片互联技术,可以将多块芯片“拼”成一个紧凑的高性能计算机。多线程、光互联、智能存储器、新的编程工具等新技术则同时出现在几个方案中。

HPCS将“高生产率”作为计划名称代表了近年来认识上的一个变化趋势:用峰值计算能力作为高性能计算机的评价指标是不充分的。用户为完成一个具体的应用问题在建模、编程、调试、优化、运行、维护和故障处理等全部周期所耗费的总代价才应是最终的评价标准。而实现高生产率将需要更多技术上的创新。

可以说,美国HPCS计划的启动标志着高性能计算机业一个新的创新时代的开始。

三、中国高性能计算机产业的机遇和挑战

当前高性能计算机的研制已进入发展的十字路口。一方面

,尖端的高性能计算机系统研制已开始了新一轮探索,正处于各种新思想与新方法产生的活跃期,未来的发展还充满了不确定性;另一方面,廉价的机群系统带来的高性能计算机普及和“平民化”在促进其更广泛应用的同时,反过来对系统设计提出了新的要求,即如何从提高生产率,更有效地解决具体问题角度重新思考高性能计算机的设计。包括具有低功耗、高密度、可共享、可重构、可定制等特点的系统的研究方兴未艾。目前,中国和世界其他国家处在同一个十字路口,没有现成的系统可供我们参考、跟踪和赶超,相反我们在技术选择及产业化方面的努力有可能对国际高性能计算机技术走向产生较大的影响。

我国已经具备了自行研制国际先进水平超级计算机系统的能力,并形成了神威、银河和曙光等几个自己的产品系列和研究队伍,有进行重大技术创新的条件。但是,目前研制的系统国产化程序并不高,处理器、高速网络等关键部件还主要依赖进口。随着集成电路生产基地逐渐向中国转移和国产通用CPU技术的突破,我国实际上已经开始具备了自主生产高性能计算机全套部件的潜力。下决心集中力量研制包括国产CPU、外围芯片在内的全自主知识产权高性能计算机系统,有可能彻底摆脱我国在高性能计算机关键技术上受制于人的局面,同时扩大我国科研人员研究与创新的领域和范围,改变我国高性能计算机研究与生产环境,确立中国在国际高性能计算机产业中新的地位。

我国高性能计算机市场已开始进入普及和高速发展期,需求牵引将逐渐表现出对技术创新的拉动作用。但是,相对于发达国家,我国高性能计算机系统在工业领域的应用还远远不够。大力推广高性能计算机和计算科学在国民经济领域的应用,其意义绝不仅仅在于高性能计算机产业自身的发展。广泛采用高性能计算机和计算分析方法是一种方法和工具上的飞跃,将可能大大促进其他领域科学技术研究进展,有助于提升我国的综合科研实力。

机遇和挑战同在,未来5-10年将是中国高性能计算机技术研究开发、产业化和应用发展至关重要的战略机遇期。而今明两年则是进行战略决策的关键。






相关文档
最新文档