应用负载均衡设计方案v1设计方案

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

应用负载均衡设计方案v1设

计方案

1.需要有支持应用的负载均衡产品,具备多种负载均衡算法。

2.能够做到根据各个Web服务器的性能,合理地分配服务器群中的每台机器所要处理的请求。

3.能够及时的发现群中的某台机器当掉,从而不对此机器发送请求。当掉机器恢复正常后,自动进行业务处理。

4.可以应对大量的服务访问;至少2, 000, 000条的TCP同时并发连接,至少每秒建立100, 000条连接。

5.有效直观的监控统计界面,包含当前时刻、过去一段时间的请求数量统计、性能统计、会话时间统计。

6.为个人业务提供SSL加密服务,可以将服务器SSL加/解密前移,并提供高效的https加/解密性能。

7.能够提供有效的机制缓解后台应用中间键服务器压力,提高业务的访问量。

一、方案建议

针对上一节提出的需求分析,F5公司充分考虑XXXX现有的实际状况,结合F5公司在

国际上网络优化案例的经验,总结出以下应用交付优化设计方案。

方案采用F5公司的新一代LTM应用交换机BIGIP3400, 提供后台Web服务器集群的负

载均衡;同时,采用另两台BIGIP 3400设备提供后台中间键服务器负载均衡,并减轻中间键服务器的压力。

在负责实现Web服务器负载均衡的BIG-IP 3400上设置两个Vlan , 分别是External Vlan 负责连接外部的防火墙系统, Internal Vlan负责连接部Web服务器集群。并且在该对BIG-IP 3400上,分别采用SSL加速模块帮助后台Web服务器实现业务的加密处理;还采用了动态智能压缩模块帮助XXXX在有限的带宽下实现访问速度的提高和访问量的增大。

在负责实现部中间键服务器负载均衡的BIG-IP 3400也设置两个Vlan,分别是External Vlan 负责连接外部的Web服务器集群, Internal Vlan负责连接部中间键服务器集群。并

且在该对BIG-IP 3400上,采用One-Connection技术降低后台中间键服务器集群的负载。

BIG-IP 3400提供所有应用的负载均衡,并实时监控各台服务器的状态,自动屏蔽故障服务器,从而确保系统稳定工作。

同时,由于采用F5特有的动态攻击防御系统,BIP-IP 3400对恶意的海量攻击具有很强的抵御能力,确保了服务器和服务的正常运作。

1. 服务器负载均衡

BIG/IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。因此,它能够为大量的基于

TCP/IP的网络应用提供服务器负载均衡服务。BIG/IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG/IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。BIGIP是一台对流量和容进行管理分配的设备。它提供12种灵活的算法将数据流有效地转发到它所连接的服务器群。而面对用户,只是一台虚拟服务器。用户此时只须记住一台服务器,即虚拟服务器。但他们的数据流却被BIGIP灵活地均衡到所有的服务器。这12种算法包括:

●轮询(RoundRobin):顺序循环将请求一次顺序循环地连接每个服务器。当其中某个

服务器发生第二到第7层的故障,BIG/IP就把其从顺序循环队列中拿出,不参加下一次的轮询,直到其恢复正常。

●比率(Ratio):给每个服务器分配一个加权值为比例,根椐这个比例,把用户的请求

分配到每个服务器。当其中某个服务器发生第二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。

●优先权(Priority):给所有服务器分组,给每个组定义优先权,BIG/IP用户的请

求,分配给优先级最高的服务器组(在同一组,采用轮询或比率算法,分配用户的请求);当最高优先级中所有服务器出现故障,BIG/IP才将请求送给次优先级的服务器组。这种方式,实际为用户提供一种热备份的方式。

●最少的连接方式(LeastConnection):传递新的连接给那些进行最少连接处理的服务

器。当其中某个服务器发生第二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。

●最快模式(Fastest):传递连接给那些响应最快的服务器。当其中某个服务器发生第

二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。

●观察模式(Observed):连接数目和响应时间以这两项的最佳平衡为依据为新的请求

选择服务器。当其中某个服务器发生第二到第7层的故障,BIG/IP就把其从服务器队列中拿出,不参加下一次的用户请求的分配,直到其恢复正常。

●预测模式(Predictive):BIG/IP利用收集到的服务器当前的性能指标,进行预测分

析,选择一台服务器在下一个时间片,其性能将达到最佳的服务器相应用户的请求。

(被big/IP进行检测)

●动态性能分配(DynamicRatio-APM):BIG/IP收集到的应用程序和应用服务器的各项性

能参数,动态调整流量分配。

●动态服务器补充(DynamicServerAct.):当主服务器群中因故障导致数量减少时,动态

地将备份服务器补充至主服务器群。

●服务质量(QoS):按不同的优先级对数据流进行分配。

●服务类型(ToS):按不同的服务类型(在TypeofField中标识)对数据流进行分配。

●规则模式:针对不同的数据流设置导向规则,用户可自行编辑流量分配规则,BIG/IP

利用这些规则对通过的数据流实施导向控制。

当出现流量“峰值”时,如果能调配所有服务器的资源同时提供服务,所谓的“峰值堵塞”压力就会由于系统性能的大大提高而明显减弱。由于BIGIP优秀的负载均衡能力,所有流量会被均衡的转发到各个服务器,即组织所有服务器提供服务。这时,系统性能等于所有服务器性能的总和,远大于流量“峰值”。这样,即缓解了“峰值堵塞”的压力,又降低了为调整系统性能而增加的投资。

BIG/IP®提供了基于应用的七层交换技术, 可以根据任意制订的规则将用户的访问导向到不同的服务器群组, 例如, IP 地址, TCP port, Cookies, Http header 中的任何标识(IE version, domain, http URI , file type , langrage ).

相关文档
最新文档