负载均衡之Haproxy配置详解(及httpd配置)-lunique

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

负载均衡之Haproxy配置详解(及httpd配置)

下图描述了使用keepalived+Haproxy主从配置来达到能够针对前段流量进行负载均衡到多台后端web1、web2、web3、img1、img2.但是由于haproxy会存在单点故障问题,因此使用keepalived来实现对Haproxy单点问题的高可用处理。

常用开源软件负载均衡器有:Nginx、LVS、Haproxy。

衡量负载均衡器好坏的几个重要因素:

1、会话率:单位时间内的处理的请求数

2、会话并发能力:并发处理能力

3、数据率:处理数据能力

经过官方测试统计,haproxy 单位时间处理的最大请求数为20000个,可以同时维护40000-50000个并发连接,最大数据处理能力为10Gbps。综合上述,haproxy是性能优越的负载均衡、反向代理服务器。

总结HAProxy主要优点:

一、免费开源,稳定性也是非常好,这个可通过我做的一些小项目可以看出来,单Haproxy 也跑得不错,稳定性可以与LVS相媲美;

二、根据官方文档,HAProxy可以跑满10Gbps-New benchmark of HAProxy at 10 Gbps using Myricom's 10GbE NICs (Myri-10G PCI-Express),这个作为软件级负载均衡,也是比较惊人的;

三、HAProxy可以作为MySQL、邮件或其它的非web的负载均衡,我们常用于它作为MySQL(读)负载均衡;

四、自带强大的监控服务器状态的页面,实际环境中我们结合Nagios进行邮件或短信报警,这个也是我非常喜欢它的原因之一;

五、HAProxy支持虚拟主机。

下述将选择Haproxy作为负载均衡器进行讲解:

本次使用环境:

环境centos7.1

Haproxy 1.5.4

Haproxy+keeplived 172.31.2.31

Haproxy+keeplived 172.31.2.32

下述针对Haproxy的配置文件进行详解:vim /etc/haproxy/haproxy.cfg

文本部分:

更多关于Haproxyacl配置请参考博文:

/tantexian/article/details/50015975

配置完成则重启服务:

systemctl restart haproxy

假若想访问监控界面:配置stats uri /haproxy项,重启服务:

systemctl reload haproxy

注意:假若页面范围不了,是否selinux关闭了,iptables开启此端口了(iptables -F)同理在172.31.2.32上面安装上述步骤安装配置好haproxy:

上述对Haproxy的优缺点及配置进行了详细讲解。

接下来对Haproxy+web负载均衡使用进行实战讲解:首先配置三台web服务器:172.31.2.33、172.31.2.34、172.31.2.35 三台都是同样操作:

1、实验环境

centos 7.1 X64 mini版

2、配置web服务器(node33/34/35):

测试方便,关闭selinux、关闭iptables

一下都采用默认,不做配置即可。

yum install httpd -y

# vim /etc/httpd/conf/httpd.conf

httpd监听端口:

DocumentRoot:网页存放的路径,文档的根目录

重启httpd

# systemctl restart httpd 页面访问httpd:

修改显示内容:

# vim /var/www/html/index.html

I'm node33!!! My IP is 172.31.2.33...

再次访问:

这样三个web服务33/34/35搭建成功!!!!

接下来配置负载均衡(本次实验只用一个Haproxy:172.31.2.31):vim /etc/haproxy/haproxy.cfg

浏览器请求172.31.2.31:

从上述结果可知,前端对172.31.2.31的请求,被Haproxy的负载均衡器,均衡请求到三个后端web172.31.2.33、172.31.2.34、172.31.2.35上面去了。

这样当三个当中的一个出现故障,流量则能正常分发到剩余两个正常的web上,从来提高了系统可靠性。

相关文档
最新文档