负载均衡在Web服务器中的应用

相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

负载均衡在Web服务器中的应用

随着互联网的迅速发展,互联网为社会网络迅猛发展提供了“天时”,宽带服务的普及,视频服务、FTP下载、数据库查询应用服务器工作量的日益增加,负载均衡技术的应用更加广泛。阐述了负载均衡技术的分类和重点介绍了服务器集群负载均衡技术及应用。

标签:互联网;负载均衡;服务器集群

引言

随着互联网技术的发展,宽带服务的普及,视频服务、FTP 下载、数据库查询等大数据量的Web 应用逐渐由可能演变成一种趋势,这些应用对Web 服务器的性能有较高要求。伴随着信息系统的各个核心业务量的增加和数据流量的快速增长,从而造成服务质量下降。在花费相同条件下,必须采用多台服务器协同工作,防止计算机的单点故障、性能不足等问题,以满足不断增加业务量的需求,提高计算机系统的处理能力和更有效解决负载均衡问题。

1 负载均衡概述

负载均衡是在现有网络结构上进行部署,来扩展网络设备和服务器的带宽、增加吞吐量,提高网络数据处理能力。从而根据负载压力通过某种算法合理分配资源,保证计算机高可靠性和高性能计算。

负载均衡其特点是充分利用网络中计算机的资源,实现多台节点设备上做并行处理。当网络中的一台或者几台服务器出现故障时,自动切换到其他服务器上,客户端会自动重试发生故障的连接,仅几秒的延迟就能选择性能最佳的服务器响应客户请求。保证用户访问的质量可靠性;同时根据算法将负载合理分配到多台节点设备上进行处理,减少用户等待响应时间和提高系统处理能力。

2 常用的四种负载均衡技术

2.1 软/硬件负载均衡

软件负载均衡是在一台或多台服务器操作系统上安装一个或多个软件来实现负载均衡,比如DNS负载均衡等。软件负载均衡的优点是容易进行相关配置、成本比较低,就能满足要求不高的负载均衡需求。

硬件负载均衡是在服务器和外部网络之间加装负载均衡器,通过负载均衡器完成专门的任务,它独立于服务器的操作系统,大大提高了服务器的整体性能。由于负载均衡器具有多样化的策略管理方法,同时能进行智能化的流量管控,使得负载均衡达到最佳状态。所以,硬件负载均衡的性能比软件负载均衡性能更胜一筹,但是投资成本相对比较高。

2.2 本地/全局负载均衡

本地负载均衡是对本地的服务器群做负载均衡,而全局负载均衡是指一个单位分布在不同地方所处的网络结构不同的服务器群间做负载均衡。

本地负载均衡可以充分利用现有设备,有效地解决数据量访问过大、网络服务器负荷过重的问题。经过某种算法和策略管理,将数据流量合理地分配到服务器上。这样就不需要额外购置性能高的服务器,就可以防止服务器单点故障发生。

全局负载均衡是指一个单位在不同地方配置了服务器的站点,所有用户都通过一个IP地址或域名就近访问服务器,这样就提高用户的访问速度,统一分配和管理资源。

2.3 更高层交换的负载均衡

在单位的网络架构中一般是由防火墙、路由器、三层交换机、负载均衡设备和服务器等大量专用设备组成,怎样将这些设备有机地组合在一起充分发挥各自的性能,是保障网络性能的关键性问题。更高层交换的负载均衡,是通过交换机的交换功能将一个合法的IP地址映射到多个内部服务器的地址,当TCP数据包连接时,就动态使用其中一个服务器的IP地址,来达到负载均衡的目的。

2.4 链路聚合技术

链路聚合技术是将网络中的多条物理链路聚合成一条单一的逻辑链路进行使用,数据流量就是通过聚合后的逻辑链路上所有物理链路一起承担。因此从逻辑上讲就增加了链路的容量,保证客户对带宽增加的需求。随着网络带宽增加,数据流量不断增大,不想对当前线路的升级改造,采用链路聚合技术是明智之举。

3 负载均衡在Web服务器中的应用

3.1 负载均衡原理

根据前面分析关于负载均衡技术的优缺点及服务器集群可能存在的问题,为了尽量规避风险,设计出如图1 所示方案部署。

图1 服务器负载均衡拓扑图

3.2 实现方法

在图1中,服务器群集中的计算机上建立相同Web服务,每台服务器的设置的IP 地址和服务端口号分别不同,再将各个服务器分别连接到负载均衡器上,这样就可以对外单独提供服务。这时候客户要访问服务器群集上的资源时,服务器的IP地址和端口号是不可见的,访问的目的地址应该为负载均衡器上的虚拟

IP地址,它的目的地址和端口号是192.168.11.10:80。客户端的请求通过某种算法经过负载均衡器到达服务器集群中一台服务器上。这时候我们假设到达服务器1上,此时的源地址为192.168.11.10,目的地址和端口号就是172.20.20.20:8080。在服务器1上访问得到相应的信息后,服务器端就要把刚才访问到的信息反馈到客户端用户,这时候的源地址就是172.20.20.20,而目的地址就是80.2.2.3,因此在客户端就能够访问到服务器1提供的相关服务资源。

3.3 实验验证

为检验网络负载均衡,在其它计算机通过ping 192.168.11.10 -t命令进行验证。通过网络负载均衡会自动转发服务器1、服务器2或服务器3上。在ping 过程中拔掉服务器1和服务器2网线,将会发现网络是保持连通状态。这样不管使用哪一个节点响应,都能保证访问的内容是一致的,避免了数据的丢失。由此,提高网络的可靠性、可用性和服务质量。

4 结束语

本文针对服务器集群下的负载均衡相关原理进行应用分析,实现了集群系统的负载均衡,从而减少了用户的等待时间等。但是随着新兴应用技术的发展和推进,如何充分利用硬件并行性需要重新设计应用程序、库以及算法,负载均衡技术至少在拓扑结构和负载均衡策略等方面有待进一步深入研究。

参考文献

[1]韩立刚,张辉.Windows Server 2008系統管理之道[M].清华大学出版社,2009.11.

[2]赵超,王晟.基于云模型的负载均衡问题研究[J].微电子学与计算机,2012,29(3):131-134.

[3]田波.MPLS负载均衡实现技术[J].信息安全与通信保密,2007(05):155-157.

[4]刘高峰.负载均衡技术全攻略http:///20010626/1870

06.shtml.

[5]李坤,王百杰.服务器集群负载均衡技术研究及算法比较[J].计算机与现代化,2009(8):7-10.

作者简介:谢峰(1968-),男,四川省西充人,本科学历,硕士学位,讲师;研究方向:主要计算机网络及计算机应用技术。

相关文档
最新文档