高速缓存技术与设计

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2003午9月 第18卷第5期
渭南师范学院学报 Journal of Weinan Teachers College
Sept.20()j V01.18 N(+.5
高速缓存技术与设计
习贵民
(渭南师范学院计算机科学系,陕西渭南714000)
摘 要:高速缓存技术对计算机性能的提升有巨大的作用,他的原理依赖于计算机运行的局部性,文中分析了(:;;che
到几兆.(2)页的映射函数,Cache中的存储槽如何对应主存中的
页帧,Cache中可存储的页远少于主存的页数,之间通过映射函 数来对应.(3)页的交换算法,当Cache存储槽已满,需要调入新 的页时,如何换出旧的页,交换的复杂程度和实际的运行结果. (4)cache写策略,Cache中的数据在一个进程中数据的变化应 反映到主存中,当页被换出主存前.应完成写.
的原理、性能.并就设计问题做了说明.
关键词:高速缓存;原理;性能;设计
中图分类号:TP301
文献标识码:A
文章编号:1009—51 28(2003)05—0059一02
Cache Principles and Design XI Gui—min
(Department of Computer Science,Weinan Teachers College,714000 Weinan.China) Abstract:Cache technology greatly advances the computer capacity and its principles depend on the locality of computer operation.The principles。capability,and design of Cache are also discussed in the paper. Key Words:Cache;principles;capability;design
Cache的设计由硬件完成,为简化说明,设中央处理器为 8086,地址总线宽度为20,Cache的大小为4K,一个存储槽为
疆敷据恙.鼍
=r 写主存
蔫控钠
替抉尾页
排队已满
256字节,图4为硬件实现的一个框图.
(1)地址识别.Cache地址识别由A19~A12线通过地址识
别电路完成,当cpu存取数据不在Cache中时,通过页调入控制
T。。=H×T ml+(1一H)×(T。I+T。2),T。I+(1一H)×T。2.
其巾:T。为平均访问时间,T。。为M1的访问时间,T。.。为M2的访问时间,H为访问M【的次数比(命中率)
可以看出·平均访问时间T。是关于命中率H的线性函数,命中率接近于1时,T。,接近于T。。
收稿日期:2003一()2—17 作者简介:习贵民(1959一),男,陕西澄城人,渭南师范学院计算机科学系讲师
4.会议论文 谭明.吴家铸.刘衡竹 VzWorks中CBIO磁盘高速缓存组件的实现分析 2008
为了提高整个系统的效率和可靠性,VxWorks在5.5以后的版本增加了CBIO接口组件.本文简要介绍了Vxworks中CBIO磁盘高速缓存的主要原理和技术 ,对CBIO磁盘高速缓存主要技术的实现进行了详细的分析.
将对应的页帧调入.
(z)页替换策略.页替换策略关系Cache的整体性能,好的策略可以提高命中率,防止页的抖动,理论上最佳的策略在
实际中往往难以实现.这里策略选LRU(Least Recently Used),最近最少使用算法,从局部性原理LRU是最好的.图4中,
一个存储槽的调出和调入由A19一A8对地址控制.其中页替换由页标识动态移位、页使用优先排队、替换末尾页组成.
字传送
块传送
圃-S·1-----[[~Cache 广—九_、 0 ———_... ..I-—一
图1 cache的地位关系
在的存储器块一起被传送给Cache.该字同时传送给CPU。
2 Cache性能
(1)局部性分析.计算机运行中的局部性问题是指内存中的某小块在上 次被访问后下次再被访问的概率很高.在高级语言中表现为较少地使用调
c¨一c。,1/cm2十sm2/s mj
C。,z
l+s。l/s。,2
如图3示,当价格比C。。/c。已知,我们希望C。
≈c。2,当C…》cnl2时,要求Sml《s”
图3中,假设存储器的单价比为50,
Cache与主存的容量比合适的选择为1:(100
—400)。

苫4 U ≥2
。0
oo —N
oo oo o oo o n寸v、心卜OO西o
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0,8 0.9

命中率H
每字节平均价格计算,有蛾。=
图2 cache访问效率(Tm2/Tml-1 0)
其中、C,为两级存储器的平均每字节价格,C。,。为Cache的每字节价格,C。:为主存的每字节价格.srn。和Sin2为M1和M2的大 小(-7节单位),当然,从价格上我们希望Coy接近于C。.对上式进行变形有:
万方数据
·60·
习贵民:高速缓存技术与设计
第18卷
考虑T。。/T。,,称为存取效率.用于衡量T。,与T。。接近的程度,有
÷i一1T。

q--(1--—H)—T毒2
如图2假设主存与Cache的访问时间比为10,
l5

O5
噼《窑答 》母卜\_【鲁-L

合理的命中率设计在O.8到O.9之间. (3)存储器的平均价格.两级存储器的价格可按
7.期刊论文 李家欣.倪亮.王乘 具备高速缓存的HTTP代理防火墙的设计与实现 -计算机工程2003,29(3)
HTTP代理防火墙是保障网络信息安全的重要手段,但其实现方式会影响网络通信效率,高速缓存是解决这一问题的可行方法.文章根据一个已实现的实 例,讨论了具备高速缓存的HTTP代理防火墙的工作过程、实现原理以及缓存机制.
[责任编辑牛怀岗]
万方数据
高速缓存技术与设计
作者: 作者单位: 刊名:
英文刊名: 年,卷(期): 引用次数:
习贵民 渭南师范学院,计算机科学系,陕西,渭南,714000
渭南师范学院学报 JOURNAL OF WEINAN TEACHERS COLLEGE 2003,18(5) 0次
参考文献(1条) 1.William Stallings.魏迎海.王涌 操作系统一内核与设计原理(第4版) 2001
5.学位论文 贺湘明 证券集中交易系统数据访问层的构架实现 2004
本文描述了东莞证券集中交易系统中数据访问层的实现.集中交易系统采用多层结构,在业务逻辑层与数据层之间增设一层数据访问层,运用反向依赖 原则,使数据访问层依赖于业务逻辑层,业务逻辑层只能通过接口访问数据访问层.将业务逻辑层与数据层完全隔离,通过配置文件,系统可以使用不同的数 据源,系统设计可以达到跨数据库平台的效果.本文共分八章,分别是集中交易的项目背景描述,集中交易的整体架构,对象与关系数据库的映射,工作单元 ,数据高速缓存,并发冲突处理,数据访问调度及集中交易的性能指标.第一章介绍集中交易的项目背景;第二章介绍集中交易的软件架构,硬件架构以及数 据访问层的构成;第三章介绍对象关系数据库的映射原理,包括映射机制,映射方法,继承关系的映射以及对象关系数据库的映射实现;第四章介绍工作单元 ,工作单元的原理,工作单元与DomainObiect的关系,使用工作单元的优缺点以及工作单元的实现;第五章介绍数据高速缓存的几种类型,包括 DataCach,QueryCache,Global Cache的几种Cache的原理及实现;第六章介绍数据并发冲突的处理;第七章介绍数据访问调度的原理及实现.主要包括通过 配置文件来实现不同的数据连接调度;第八章介绍集中交易系统采用数据访问层之后所达到的应用效果.
相似文献(10条)
1.期刊论文 章复嘉 实验仪上高速缓存的设计方法及实现 -杭州电子工业学院学报2004,24(3)
高速缓存(Cache)是计算机组成原理教学中的一个重要部分,由于技术上的原因,目前市场上的组成原理实验仪都不包含Cache.对在实验仪上设计开发 Cache提出了一种新的方法,并针对流行的TDN-CM+型组成原理实验仪的结构,用CPLD器件仿真实现了Cache部件,典型数据定量仿真测试表明,所设计的 Cache部件具有合理的命中率,符合计算机上Cache的工作原理又能够满足教学需要.
6.期刊论文 胡跃峰.黄焱.HU Yue-feng.HUANG Yan Web高速缓存及其在卫星Internet中的应用 -中国有线电视
2005(6)
随着Internet的飞速发展,Web流量迅速增加,高速缓存成为减少用户等待时间和减少网络冗余流量传输的首要技术.随着网上越来越多的图像、音频 和视频内容的出现,终端用户对带宽的要求不断增长,卫星以其覆盖面广、带宽高的特点承载了越来越多的Internet业务.本文介绍高速缓存技术的原理和 应用,并结合卫星Internet的特点引入一种结合高速缓存的卫星分发系统.
l 高速缓存原理
在计算机的一个指令周期中,CPU对存储器的访问至少一次用于取操作数或写结果.由于CPU的速度远远大于存储
器,多数时间CPU在等待,提高计算机
的速度途径之一是在CPU与存储器之 间建立高速缓存(cache),如图1示.
Cache(高速缓冲存储器)使用速度 快的存储器.当CPU向存储器读写一个 字时。首先检查该字是否在Cache中,若 在,直接与Cache读写.若不在.该字所

n㈩_ o o o o o
oo oo o
¥m2/Sml
——cav/cm2‘ cml/cm2-
50)
3 Cache设计
图3存储器平均价格与相对大小的关系
Cache在电路上采用高速集成电路技术,合适的Cache容量大小是价格合理命中率也满足要求.为设计符合要求的命
中率,Cache设计需要考虑:(】)页的Байду номын сангаас小,计算机对内存的管理多采用段页式管理,页的大小与cpu的地址宽度,主存的的 大小等相互关联,现在随着主存的容量增加.Cache的容量可以
2.期刊论文 吴英杰.王晓东.王一蕾 局部性原理与高速缓存参数无关技术 -福建电脑2006(4)
在高速缓存参数无关的算法与数据结构的设计中,使用了许多技术,这些技术都是利用数据的时间和空间局部性,有效地使用计算机多级存储结构,进 而提高算法与数据结构的效率.文中对若干利用局部性原理的高速缓存参数无关技术进行分析和总结.
3.期刊论文 薛华明.邢志凤.高风.XUE Hua-ming.XING Zhi-feng.GAO Feng 基于ePro系统的一种嵌入式系统的调试
原理及方法 -仪器仪表用户2005,12(6)
本文首先简要介绍了片上系统的调试方法及其优点和ePro系统的框架结构,而后介绍ePro系统的调试原理和结构,重点介绍调试支持单元(DSU:Debug Supported Unit),具体可以分DSU、跟踪缓存器(Trace Buffer)和调试通讯链接串口(DCL:DSU Communication Link)三部分,最后介绍这种调试方法的基 本的调试操作和外部引脚.
表1 语句动态频率分析
用和转移语句,有资料对用Pascal、FORTRAN、C、SAL高级语言编写的科
学计算程序、学生程序、系统程序进行测试,对各种语句的使用频率统计如
表1所示,局部性语句占88.63%.
(2)CPU对存储器的平均访问时间.CPU对存储器的访问时间要考虑
两级存储器的访问次数和存储速度,用M1代表Cache,M2代表主存,为此 有:
LRU策略随系统Cache容量增加,电路实现的复杂度提高.
(3)页的换人换出.当CPU要读取得数据不在Cache中时,通过页映射控制,将内存中对应的页帧调入Cache中.若
Cache有空槽,“页使用优先排队”电路使新进入的页优先级最高,若Cache中存储槽已满,则优先级最低的页被换出
Cache.当cpu存取的数据在Cache中时.“页使用优先排队”电路是对应的页优先级最高,其他页优先级顺移.
(4)写策略.在多用户环境中,为保证数据的一致,Cache中的数据应及时写入主存,一·种方便的做法是当页被替换出时
发生写操作.
因此.Caehe技术是一个优秀的发明,在提高计算机的运行速度,降低成本方面做出了,重大贡献。Cache技术应用于磁
盘等外设,加快了低速设备的数据存取能力.
参考文献:
[1][美]William Stallings著.魏迎海,王涌等译.操作系统一内核与设计原理(第4版)EM3.北京:电子工业出版杜,2001.
相关文档
最新文档