计算机专业英语教程第五版-Unit1翻译

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Unit 1 Hardware I
1.1 A closer look at the processor and primary storage
进一步了解处理器和主存储器
我们已经知道,所有的计算机都具有相似的能力,并且在本质上执行相同的功能,尽管一些可能会比另一些快一点。

我们也知道,一个计算机系统具有输入,输出,存储和处理部件;处理器是一个计算机系统智能核心,并且一个计算机系统可以有许多个处理器。

我们已经讨论过如何在计算机系统内部,用被称作“位”的电子状态来表现数据,现在我们要弄明白计算机系统的核心,即处理器,的内在的工作方式。

计算机的内部操作很有意思,但确实没有什么神秘可言。

所谓的神秘只是存在于那些听信传闻和相信科幻小说作家的人的意识中。

计算机就是一种没有思想的需要接通电源的电子设备而已,与烤面包机和台灯差不多。

不加夸张地讲,市场上有几百种不同类型的计算机在销售.每种电脑在复杂性上可能有很大区别,但归根结底,每种处理器,有时称为中央处理器即cpu,只有两个基本部分:控制单元和计算逻辑单元.主内存在处理器内部操作中也是一个不可缺少的部分.这三个部件--主内存,控制单元和计算逻辑单元--一起工作.然我们看看它们(各自的)功能和它们之间的联系。

主存与其他的辅助存储器(如:磁带、硬盘)不一样的是,主存不含有运转部件。

由于没有机械运转的需要,主存种数据访问可以达到电子的速度,或接近于光速。

当今计算机的主存大多数使用DRAM(动态随机存取存储器)技术。

目前最新的工艺水平是:一块只有大约1/8张邮票大小的DRAM芯片却可以存储大约256,000,000位,约25,6000,000个字符的数据。

主存储器,也就是说内存,用于为处理器暂时存放程序和数据。

所有的程序和数据在被操作之前必须从输入设备(如VDT)或者辅助存储器转存到主存储器中。

主存储器存储容量通常是相当有限的,因此,在一个程序执行结束,它所占用的存储空间必须被重新分配给其它正在等待执行操作的程序。

图1-1描述了输入/输出设备与主存储器间的读和写过程。

在图中,VDT发出一个输入请求,请求是以消息模式通过通道(如同轴电缆)发送到主存储器。

这个查询被解释,处理器发起操作从辅助存储器中调用合适的程序和数据。

程序和数据从辅助存储器传送到主存储器中,这是一个非破坏性的读取过程,也就是说,程序和数据同时存在于主存(临时保存)和辅助存储器(永久保存)中。

根据程序指令的指示,处理器对数据进行操作,并从主存传送一份报告到打印机。

程序指令和数据是存储在主存中一个特殊的位置,称为地址空间。

通过地址空间可以实现计算机对程序指令和数据的定位、访问和处理。

地址空间的内容是经常变化的,这是由于计算机一直在执行不同的程序和数据。

主存储器也称为随机存取存储器,或RAM。

还有一种特殊的主存储器,称为只读存储器(ROM),这种存储器不能被程序更改存放的内容。

ROM的内容是被生产商通过硬件电路写入的,并且不能被重写。

当你启动计算机,ROM中的一个程序会自动就绪等待计算机系统的调用,然后在显示器中显示开机提示。

可编程只读存储器(PROM)是另一种ROM,它可以载入只读的程序和数据,一旦载入,将不再改变。

然而,若果你需要去修正PROM的内容,可以使用可擦可编程只读存储器。

EPROM在进行一次写操作之前,所有的存储单元必须被还原为同一初始状态。

一种更吸引人的可改写只读存储器是电可擦除可编程只读存储器(EEPROM)。

它可以在任何时候写入,而且不会擦除以前的内容;只会更新被寻址的字节。

电可擦可编程存储器把非易失性优点和可更新、需要更新的地方的灵活性结合起来,修改时使用普通的总线控制线、地址线和数据线。

另一种半导体记忆体是闪存(意味着速度快)。

闪存在性价比上处于EPROM和EEPROM之间,它使用电擦写技术。

整个闪存的内容可以在一到几秒内被清除,这是远快于EPROM的。

另外,它还可以对部分记忆块而不是整个存储器进行清除。

然而,闪存并不提供字节级的擦除。

像EPROM,闪存只使用一个晶体管每比特,因此可以实现高密度的EPROM。

高速缓冲存储器
程序和数据从辅助存储器装载到RAM中是因为对RAM中的程序指令和数据的访问时间要明显的少于从辅助存储器访问。

数以千条的指令和数据能被访问而只需花费从硬盘访问一次数据的时间。

RAM是数据和程序的重要的高速存放区,事实上,计算机系统不会进行任何操作直到程序指令被传入处理器进行执行,这种指令和数据的传输是需要花费时间的,即使传输速度已经是以纳秒来计算了。

为了能更快速的传输指令和数据,大
多数计算机设计使用高速缓存。

计算机设计者使用高速缓存来提高计算机系统的总处理能力(工作效率)。

和RAM一样,高速缓存也是程序指令和数据的高速存储区。

然而,高速缓存使用静态RAM技术,这种技术比RAM在速度上要高出10倍,价格上高出100倍。

cache只保存内存中那一小部分最有可能被处理器执行的指令和数据。

两种类型的cache广泛应用于计算机,第一种被植入cpu中的叫做内部高速存储,第二种是外部高速存储,它位于那些靠近cpu的芯片中。

一台计算机可以拥有几个不同级别的高速缓存。

一级缓存实际上总是植入芯片中,二级缓存过去常常作为外部高速缓存,但是现在也像一级缓存植入cpu内部。

1.2Bus interconnection
总线互连
总线是连接两个或多个设备的通信通路。

总线的关键特征是,它是一条共享传输介质。

多个设备连接到总线上,任一个设备发出的信号可以为其他所有连接到总线上的设备所接收。

如果两个设备同时传送,它们的信号将会重叠,引起混淆。

因此,一次只能有一个设备成功地(利用总线)发送数据。

典型的情况是,总线由多条通信通路或线路组成,每条线(路)能够传送代表二进制1和0的信号。

一段时间里,一条线能传送一串二进制数字。

总线的几条线放在一起能同时并行传送二进制数字。

例如, 一个8位的数据能在8条总线线上传送。

计算机系统包含有多种不同的总线,它们在计算机系统层次结构的各个层次提供部件之间的通路。

连接主要计算机部件(处理机, 存储器, I/O)的总线称为系统总线。

系统总线通常由50~100条分立的(导)线组成。

每条线被赋予一个特定的含义或功能。

虽然有许多不同的总线设计,但任何总线上的线都可以分成三个功能组:数据线、地址线和控制线。

此外可能还有为连接的模块提供电源的电源线。

数据线提供系统模块间传送数据的路径,这些线组合在一起称为数据总线。

典型的数据总线包含8、16或32根线,线的数量称为数据总线的宽度。

因为每条线每次传送1位,所以线的数目决定了每次能同时传送多少位。

数据总线的宽度是决定系统总体性能的关键因素。

地址线用于指定数据总线上数据的来源和去向。

例如,如果处理机希望从存储器中读一个字的数据,它将所需要字的地址放在地址线上。

显然,地址总线的宽度决定了系统最大可能的存储器容量。

控制线用来控制对数据线和地址线的访问和使用。

由于数据线和地址线被所有部件共享,因此必须用一种方法来控制它们的使用。

控制信号在系统模块之间传送命令和定时信息。

定时信息指定了数据和地址信息的有效性,命令信号指定了要执行的操作。

大多数计算机系统使用多总线,这些总线通常设计成层次结构。

图1.3显示了一个典型的高性能体系结构。

一条局部总线把处理机连接到高速缓存控制器,而高速缓存控制器又连接到支持主存储器的系统总线上。

高速缓存控制器集成到连接高速总线的桥中。

这一总线支持连接到:高速LAN、视频和图形工作站控制器,以及包括SCSI 和FireWire的局部外设总线的接口控制器。

低速设备仍然由分开的扩充总线支持,用一个接口来缓冲该扩充总线和高速总线之间的通信流量。

快速外设部件互连提升性能
在过去的十年里,PCI总线一直是PC机和服务器的主流I/O架构。

PCI传送由微处理器、网卡、图形卡和与它相连的其他子系统所产生的数据。

然而,随着计算元件的速度和性能的提高,PCI的带宽限制和并行效率低下逐渐成为系统性能的瓶颈。

PCI是一种有多个适配器的单向平行总线体系结构,必须争夺可利用的总线带宽。

虽然PCI接口的性能几年来不断得到改进,但信号偏离(数据位到达目的地太晚),信号路由以及无法降低电压或提高频率等问题,无不表明该架构走到了尽头。

额外的努力去提高它的性能将会花费很大而且不切实际,一些卖主,包括业内一些最大最成功的系统开发商,发起了一项被称为PCI Express的I/O架构(最初被称为第三代I/O,或3GIO)。

PCI Express是点对点的切换体系结构,创造了高速、CPU和系I/O统之间的双向链接(开关是由主桥连接到CPU上)。

每一个这些链接都有一个或多个包含四条线的线缆——两条用来传送数据两条用来接收数据。

这些线缆的设计能使其在低电压下的使用(导致低力量的使用),减少电磁排放,消除信号偏离,降低成本自然也提高了性能。

在最初的设计实现中, PCI Express可以得到在每条线路上的每个方向以2.5 Gbit/秒的速度转移。

相比之下,PCI-X1.0版本的PCI架构,是如今最常见的,提供1 Gbit /秒的吞吐量。

PCI Express卡的吞吐量可在四或八线配置(称为x4和x8),x4 PCI Express卡所能提供的吞吐量高达20 Gbit/秒,而x8 PCI Express卡所能提供的吞吐量高达40 Gbit/秒。

早期尝试创建一个新的PCI架构失败了,这在一定程度上是因为他们需要太多的变化到系统和应用软件。

驱动程序,实用程序和管理应用均需要被改写。

PCI Express的开发人员消除了对新操作系统支持的依赖,让PCI兼容的驱动程序和应用程序无需改变就能在PCI Express硬件上运行。

未来总线
开发人员正在提高PCI Express的可扩展性.当前服务器和桌面系统支持PCI Express适配器和图形卡高达8通道,这种体系结构在将来能够支持多达32个通道。

第一个光纤通道主机数据适配器被设计来支持四通道而不是八通道,部分原因是由于服务器开发商已经将他们的系统设置成了四通道插槽,。

甚至更大的带宽是必须的,执行一条八通道道设计能够将性能提高一倍,假如系统中没有其他瓶颈。

这种可伸缩性加上每个通道的速度有望加倍,达到5Gb/s(兆位/秒),将保持PCI Express 在可预见的未来仍然是设计师课实施的方案。

PCI Express是PCI 上重大的提高,并且,在它的发展路上正逐步形成对PC机,服务器的更多的新的标准。

它不仅可以降低成本,提高可靠性,但是它也大大提高了性能。

应用程序如音乐、视频流、视频点播、网络电话和数据存储将受益于这些改进。

1.3integrated circuit-Moore law
集成电路-摩尔定律
我们知道,数字计算机的基本部件必须执行存储、移动、处理和控制功能。

只需要两种基本类型的组件(图1-5):逻辑门和内存单元。

逻辑门是实现布尔或逻辑函数的元件,例如如果A和B为真,则C为真(与门)。

这类元件被称为门,因为它们控制数据流的方式与运河阀门非常相似。

内存位元是一种可以存储一位数据的元件;也就是说,该设备可以在任何时候处于两种稳定状态之一。

通过把大量的这些基本设备连接起来,我们就能建造一台计算机。

因此,计算机由门、内存位元和这些元素之间的互连结构所组成。

而这些门和内存位元又是由简单的数字电子元件构成的。

集成电路利用这样一个事实,那就是晶体管、电阻和导线都可以用硅之类的半导体制成。

将整个电路制作在一块很小的硅片上,而不是用分立元件(它们由个别的硅片组成组装成相同的电路,只不过是固态技术的扩展,能够在一块硅晶片上同时制造许多晶体管。

同样重要的是,这些晶体管能够通过金属化过程来连接,以形成电路。

图1-6描述了集成电路中的一些关键概念。

一块薄的硅晶片划分成小区域阵列,每个区域有几平方毫米。

它们上面都制作相同的电路,该晶片被切割成许多块芯片,每块芯片都包含许多逻辑门和/或内存位元,加上许多输入、输出连接点。

然后封装这块芯片,以保护芯片,并提供引脚,用以连接芯片外部的设备。

许多这样的集成块能在印制电路板上相互连接,产生更大、更复杂的电路。

起初,只有几个门和内存位元可以可靠地制造并封装在一起。

这些早期的集成电路被称做小规模集成电路(SSI。

随着时间的推移,将越来越多的元件放在同一块芯片上成为可能。

这种密度的增长是(有记载的)最显著的技术发展趋势之一。

它反映了著名的摩尔定律,它是由Intel的合作创办人之一戈登·摩尔于1965年提出的。

摩尔观察到可以放到单块芯片上的晶体管数每年翻一番,并正确地预言这种态势在不远的将来会继续下去。

令许多人(包括摩尔在内)惊奇的是,这种态势年复一年地继续下来。

到20世纪70年代,这种速度减慢为每18个月翻一番;但从此以后,这个新增长速率又继续维持。

只要这个定律保持有效,芯片制造商就能每3年发布新一代的芯片,其晶体管数为上一代的4倍。

对于内存芯片,这使得动态随机存储器(仍旧是计算机主存的基本技术)的容量每3提高4倍。

摩尔定律的结果是深远的:
(1)在芯片密度(集成度)快速增长的时期,一块芯片的成本实际上没有变化。

这意味着计算机逻辑电路和存储器电路的成本显著下降。

(2)因为在集成度更高的芯片中逻辑和存储器单元的位置更靠近,电路长度更短,所以提高了运行速度。

(3)计算机变得更小,更容易放到各种环境中。

(4)集成电路内部的连接比焊接连接更可靠;由于每块芯片中的电路增加,芯片间的连接变得更少。

1.4 multicore processors
多核处理器
1965年,Gordon Moore首次提出了今天我们所说的摩尔定律。

他(后来与人共同筹建了英特尔公司)说,能够封装进集成电路的元器件数目每年(后来修改成每十八个月)约翻一番。

1971年,英特尔的4004处理器有2300个晶体管。

1982问世的80286有134000晶体管。

今天,一般的处理器有高达2亿只晶体管,英特尔预定在今年晚些时候推出有17亿只晶体管的处理器。

多年来,处理器的这种进步是完全可以预测的: 一代接一代的半导体技术给我们带来了在更薄的硅衬底上、工作在更高时钟速度上的更大、更强的处理器。

那些更小、更快的晶体管耗电也更少。

但总是有尽头的。

随着工作电压更低,漏电就更多,产生更多的热量,就需要对处理器的冷却给予更多的关注,这就限制了潜在的速度提高——可以把它当作热障。

为了突破热障,处理器生产厂家采用了一个新的策略,将两个或更多完整的独立处理器内核(即CPU)封装在一个芯片上。

这种多内核处理器能直接插入主板的单个插座上,而操作系统把每个执行的内核看作一个分立的、可独立控制的逻辑处理器。

有了两个独立的CPU就允许每个CPU稍微运行得慢些,从而温度就低一些,但在多数情况下,仍能改进机器整体的吞吐量。

从某个角度看,这种多内核处理器只是已沿用多年的、采用两个或更多标准CPU的多路服务器设计思想的延伸,我们只是简单地使之封装得更小、集成更多的元器件。

然而,在实践中,多内核策略代表着处理器架构的重大转变,将会在计算行业中快速流行。

在同一芯片中有两个CPU,而不是插入两个分开的插座,极大地提高了CPU之间通信的速度,降低了等待时间。

来自英特尔的第一个多内核CPU已经上市。

英特尔希望到2006年底,多内核处理器在新销售的台式机中达到40%、在移动CPU中达到70%、服务器中达到85%。

英特尔已经说过,将来所有的CPU设计都将是多内核的。

英特尔的主要竞争对手,包括AMD、Sun和IBM,也都把宝押在了多内核处理器上。

多内核处理器除了运行温度低、速度快,还非常适合那些操作可以分成不同线程以及并行运行的任务。

在一个双内核的CPU上,可以使用多线程的软件(同时运行数据库查询和图形生成)运行速度几乎比单CPU芯片快了一倍。

但是,很多以线性方式处理的应用程序,如通信、备份和某些类型的数值计算,在速度稍微慢一些的双内核处理器上并不能比速度更快一些的单内核CPU上获得更大的优势。

1.5computer architecture
计算机体系结构
迈克尔.弗林1972分类的计算机体系结构仍然是最普逼使用的分类方法并行计算机。

弗林分裂的电脑根据是否使用单个或多个“流”的数据,和(二)单个或多个“流”说明(表1)。

SISD计算机执行一条指令在一个基准。

这是传统的冯诺依曼体系结构。

MISD计算机,另一方面,将几个指令适用于每个数据从内存读取。

没有电脑符合这种模式还没有被构造。

费林的四个分组SIMD的第三。

在SIMD计算机很多处理器同时执行相同的指令但在不同的数据。

例如如果指令添加一个B,这是A和B矩阵,每个处理器将自己的B值添加到自己的价值。

重要的这种类型的电脑产生日期是分布式阵列处理器,连接器等,这些机器是建立的非常简单的处理元素(PEs)但是弥补这种简单使用他们中的许多人在一起,单个个人PEs主处理器广播程序指令,执行指令在自己的数据。

PEs只能暂时被禁用,这样操作是进行数据的一部分这提供了一种方法使计算视,像大多数语言的IF语句。

处理元素还可以传输数据,衣冠楚楚PEs连接在一个方形阵列,每个体育可以同时在一个方向和接收转变一点一点从相反的方向发展。

重复的变化可以将大量数据从任到其他网格的一部分,SMD计算枫的优势之一是随右越来越多的处理元素添加所以更处理机问的链接,这样机器的总通信带宽规模比例上升这样的扩展属性在MIMD计算机是一个重要的因素。

经验表明SIMD非常擅长某些事情,但效率低下例如许多图像站理的算法包括图像的每个像素上执
行相同的操作,如采取加权平均的价值和价值观的四个最近的邻居。

如果每个像素映射到一个单独的
PE.SIND机器可以同时为每个像素进行计算生产的清廉形象比串行机需要更少的时问。

另一方面当任务并没有很好的负载均衡的SMD架构可以效率低下。

例如,在文中有些光线水远不会相交一个对象,并立即离开现场,
而其他人期涉及许多反射/折射一个荞常复杂的路径。

在计划的存在对于许多应用程序这可能会减少不平衡,那些简单的任务指的PEs还必须等待其他处理器完成。

MIMD计算机是一个进化一步从SISD电。

MMD计算机包含几个独立(面且通常equi-powerfu理器,每个执行其个人项目。

例如当p可用处理器和n个元素序(n远远大于p)初始数据分布在p排名处理器P1,P2,Pp是X=<,x2 >,在哪里一块M=[n/p]元存储在处理器的本地内存。

对n个元素进行序每个处理器可以通过使用任何首先执行一种当地快速独立序列排序算法。

毕竟处理器完成他们的地方他们合作开展全球归并序。

有几种不同的方法构建一个MIMD计算机现有技术,一些制造商夫妇许多传统微处理器(通常是80年英特尔x86)创建一个机器在小型计算机与主机的性能成本不同的方式的主要区期是处理器对内存的关系,其他特征,比如处理器连接的方式遵循从这个初始的区别。

SM-MIMD
SM-MIMD只要处理器的数量仍然很小,工程师可以将它们连接到单个内存存储。

这导致共享内存的计算机(SM见图1·刀),每个处理器可以访问任何部分的整个机器的内存。

在不那么极端的例子中处理器有私有内存,可能比一个私人办公室但也分享一些记忆像程序员共享库或咖啡休息室)。

共享内存电脑足有吸引力的,因为他们是相对简单的程序。

然面,计算机物理共享内存有一个很大的缺陷他们不能无限扩大,随着处理器试图访问内存数量的增加这样的几率处理器将争夺这样的访问。

最终访问内存成为瓶颈限制了计算机的速度。

使用本地级存的内存可以缓解这个问题,允许在每个处理器常用的数据存储在本地。

这种方法,当其逻辑限制分配处理器之问的所有内存因此减少所需的内存带宽。

这导致了一个无共享的计算机。

SN-MIMD
SN-MIMD在基本无共享设计中每个处理器都有一个私有内存处理通过高速互连网络通信(Fgue18)。

然而,访问内存位置在远程节点构成一个新问题。

在一些SN电脑,共享内存是仿真的分布式内存架构通过全局地址空间和处理机间通信的用户藏,然而更常见的在分布式内存的机器如英特尔SC/2,为每个处理器来维持自己的记忆和用户程序特别请求来自另一个节点的信息。

(如何将这些处理器在SN计算机链接在一起是另一个问题。

都连接到一个公共汽车或通过一个开关,导致上面讨论的各种瓶颈一样大量的处理器。

同样每个处理器与其他不是一个可接受的解决方案,因为连接数(因此)成本上升与处理器的数量的平方。

唯一可行的解决办法是将每个处理器连接到一些小子柴的同伴。

最受欢迎的处理器互连拓扑令天无疑是超立方体。

超立方体是一个熟悉的广场和多维数据集的泛化六个简单的超立方体如下所示(图1·9)
超立方体有几个优势。

首先在超立方体的节点数量呈指数级增长的数量每节点连揸,这样每个节点的硬件允许的微小增加大量增加电脑的大小。

第二节点之间的替代路径的数量随超立方体的大小这有助于缓解交通拥堵,第三高效的算法以之向路由消息处理器在超立方你(如两阶段随机路由)最后,今天最重要的是,一个大型语料库软件和编程技术存在超立方体。

相关文档
最新文档