缓存技术

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、缓存技术

缓存技术是一种在本地存储经常访问的信息的一种技术。Web缓存在用户本地的存储设备上存储Web网页及其内容,这要比Web查询快。通过减少WAN链路和Web服务器上的传输量,缓存为ISP、企业网络及终端用户提供了以下一些好处。

1、减少W AN带宽的占用,降低成本。ISP把缓存引擎(Cache Engine)置于网络关

键点上,以提高响应时间,降低骨干网上的带宽占用需求。ISP也把缓引擎置于W AN 访问的关键点上,使其能从本地磁盘上为Web查询提供服务,而不能远距离或通过Web服务器读取信息。

在企业网中,由于Web缓存技术可以用低成本、低带宽的W AN链路服务同一个位置的用户群,从而大大降低了对带宽的占用时间。企业可以利用现有的W AN链路带宽增加用户数,并为用户提供更多的服务。

2、提高终端用户的效率。本地Web缓存的响应时间比W AN下载相同内容的时间快

三倍,终端用户可明显感到响应时间的加快,并可实现完整的传输。

3、安全访问控制及监测。缓存引擎为网络管理员提供了一个简单、安全的方法,通

过URL过滤机制,可加强基于站点地址的访问控制策略。

4、可操作日志记录。网络管理员能了解哪些URL被点击、每秒缓存服务多少个查询、

从缓存提取的URL的百分比是多少以及其它操作相关的统计数据。

Web缓存按以下步骤工作:1、用户访问Web网页;2、当网页传输给用户时,缓存系统存储网页并把与其相关的图文存储到本地存储设备上;3、另一个用户(或初始用户)访问此网页;4、Web缓存从本地存储器中取出网页,而不用在Internet上发送查询信息,这样就加快了下载速度,减少了W AN链路的带宽需求;5、不同的系统对保证缓存信息与源信息同步更新的方法各不相同。

IP缓存加快网络访问速度

I P超高速缓存(I P C a c h i n g)已经成为优化使用

带宽和提高网络性能的一种良好的解决方案。对最终用

户的近端所需文件频繁存储,可以降低相应的W A N或

I n t e r n e t连接的带宽需要,这样反过来又省去了或延

缓了昂贵的升级之需。因为所有通信都是以L A N的速度

传输,这同样提高了最终用户的性能。

这种缓存技术减少了W A N的数据链接流量,减轻了W e b服务器的负担,它给I S P、企业网与最终用户都带

来了显而易见的好处。

1.减小W A N的带宽从而降低了网络开销;

2.提高最终用户的效率。采用了I P缓存技术的网络,从缓存服务器中下载的回应速度要比从W A N上下载

同样的内容快3倍。

现实的提速方案早在万维网流行以前人们就知

道I P缓存的这个好处。典型的例子是I n t e r n e t上诸如F T P、G o p h e r和n e w s g r o u p s之类的归档文件的存放,

文件在世界各地以镜像方式就近存放。但对于H T T P,

由于用户请求的随机性数据量大和时间相关性强,镜像存储并不可行。

I P缓存服务器对H T T P就相当于对上述归档协议的镜像存储。这两种缓存服务器工作原理基本相同。I P

缓存服务器截获浏览器向W e b服务器发出的数据请求,当这部分数据从W e b服务器下传给浏览器时,将它们存在硬盘上。这样,以后I P缓存服务器再截获到类似请求时,就可以直接把相应的缓存数据发给请求者。

I S P由于面对来自用户和I C P方要求提高服务质量的压力,成为了I P缓存服务器的主要使用者。对于用户来说,更快的连接如D S L s(D i g i t a l S u b s c r i b e r

L i n e s)、I S D N和C a b l e M o d e m s将取代链路中的薄弱

环节———电话M o d e m(目前一般它的最大传输速率为56k b i t/s)。那些升级了他们因特网接入的用户,将感到浏览器性能有明显的提高,同时更大的数据流量也将注入I n t e r n e t主干线。在市场的推动下,I S P寻求

性能价格比更高的方法来充分利用现有网络带宽,I P

缓存则是现在和将来的主要解决方案。

代理服务器是前身

典型的早期缓存服务器是代理缓存服务器。它们为一组用户提供数据代理服务,接受用户的请求并转发到目的地。作为所有用户访问I n t e r n e t唯一的接入点,代理服务器要进行内容过滤、用户认证、活动日志及数据缓存,和防火墙一起,它是一种安全的接入I n t e r n e t 的方案。

最早的代理缓存是基于软件的H a r v e s t C a c h e,它是1994年到1996年美国几家研究部门资助的一个联合研究项目的成果。从那时起,市场上陆续出现了一些代理缓存服务器。其中最引人注目的有M i c r o s o f t

N e t s c a p e C o m m u n i c a t i o n s和N o v e l l等几家,它们的

代理缓存服务器都与其各自的公司产品紧密结合。除了有缓存功能,它们还有许多代理功能,如用户认证、内容过滤、病毒检查、安全、活动日志等。

“软”变“硬”是主流

1997年一个题为“为什么有缓存的”的报告中,

研究机构F o r r e s t e r预言缓存将从软件转向硬件。

D a t a q u e s t1998年7月也同样预言硬件缓存将是缓存

市场的主流。因此1998年许多供应商纷纷公布了硬件缓存的应用。他们声称硬件缓存比纯软件好,因为操作系统和缓存硬件是紧密集成的,并针对缓存进行了优化。他们还声称其产品易于安装和配置,是一个更安全的平台。概括地讲,基于软件的缓存,如代理缓存,是针对代理特性来设计的,而硬件缓存装置能支持繁重的缓存任务,并且也能用于代理。

值得注意的是最近推出的,相对低廉的缓存装置。这些基于非专有硬件和软件的设备,是预先配置好的,着重于低价和易用。它们对于小公司和那些希望只在工作组内实行缓存,又因以前的解决方案价格过高或操作过繁而犹豫不决的大公司特别有吸引力。

现有的协议

I C P(I n t e r n e t C a c h i n g P r o t o c o l),来源于

H a r v e s t P r o j e c t的早期缓存研究,规定了多个I P缓

存如何交换有关W e b内容的新信息,如何从对等的缓存上检索数据(如从源W e b服务器上检索相应数据)。通过I C P,缓存服务器的管理员可以将机器配置成能检索其他支持I C P的缓存。如一个本地的缓存可以轮询上一级的缓存,看看它们是否得到所需文件的更新拷贝,或者是否核实了该文件在源地的保存时间。即使上一级的缓存没有文件的新版本,它也可能在更近的时间里核实了该文件在源地没有被更新或者以一个新的版本存储。依赖于本地缓存的更新算法,可用该信息从源地得到文件的一个新版本,或是利用本地的版本。

轮询上一级的缓存数据因来回要耗时,延迟也会相应地增加,但因请求无需传到源地去,仍可节省大量的时间。另外,从就近的基于I C P链接的缓存获得数据,一般会减少I n t e r n e t主干网的阻塞,为I n t e r n e t的其他用户节省了带宽。目前市场上的缓存几乎都支持

I C P。

和I C P一样,C R P(C a c h i n g A r r a y R o u t i n g

P r o t o c o l)是缓存对等协议,它主要着重于本地缓存服务器间的载荷平衡。它是由M i c r o s o f t起草的,已经作为I n t e r n e t提议提交给了3W C(W o r l d W i d e W e b

C o n s o r t i u m)。除了M i c r o s o f t,其他不少的厂商如

P a c k e t s t o r m T e c h n o l o g i e s和S u n也支持C A R P。

不足之处

相关文档
最新文档