linux双网卡绑定及防漂移
linux下个网卡如何绑定多个IP和多个网卡用一个ip的设置
个网卡绑定多个IP和多个网卡用一个ip的设置
常用到的是“一个网卡绑定多个IP”
一个网卡绑定多个IP
linux的网络设备配置文件存放在/etc/sysconfig/network-scripts里面,
对于以太网的第一个网络设备,配置文件名一般为ifcfg-eth0。
如果需要为第一个网络设备多绑定一个IP地址,只需要在
/etc/sysconfig/network-scripts目录里面创建一个名为ifcfg-eth0:0的文件,
内容样例为:
DEVICE="eth0:0"
IPADDR="211.100.10.119"
NETMASK="255.255.255.0"
ONBOOT="yes"
其中的DEVICE为设备的名称,
IPADDR为此设备的IP地址,
NETMASK为子网掩码
ONBOOT 表示在系统启动时自动启动。
如果需要再绑定多一个IP地址,
只需要把文件名和文件内的DEVICE中的eth0:x加一即可。
LINUX最多可以支持255个IP别名
多个网卡绑定一个IP
网卡绑定一个ip详见《北京华唐宽带测速系统环境搭建手册》
现在两块网卡已经象一块一样工作了,这样可以提高集群节点间的数据传输。
你最好把这几句写成一个脚本,再由/etc/rc.d/rc.local调用,以便一开机就生效。
bonding对于服务器来是个比较好的选择,在没有千兆网卡时,用两三块100兆网卡作bonding,可大大提高服务器到交换机之间的带宽。
但是需要在交换机上设置连接bonding 网卡的两个口子映射为同一个虚拟接口。
linux双网卡绑定
中标麒麟V6双网卡绑定文档方法一:1 添加虚拟网卡vim /etc/sysconfig/network-scripts/ifcfg-bond0cat /etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond0 设备名称BOOTPROTO=static IP获取方式ONBOOT=yes 是否随网络服务启动eth0设备设置生效IPADDR=192.168.0.1 IP地址NETMASK=255.255.255.0 掩码GATEWAY=192.168.0.254 网关USERCTL=no 是否允许非root用户控制该设备2 配置本地网卡信息vim /etc/sysconfig/network-scripts/ifcfg-eth0vim /etc/sysconfig/network-scripts/ifcfg-eth1cat /etc/sysconfig/network-scripts/ifcfg-eth0DEVICE="eth0"TYPE=EthernetBOOTPROTO=noneONBOOT="yes"MASTER=bond0SLAVE=yesUSERCTL=nocat /etc/sysconfig/network-scripts/ifcfg-eth1 DEVICE="eth1”TYPE=EthernetBOOTPROTO=noneONBOOT="yes"MASTER=bond0SLAVE=yesUSERCTL=no3 配置Bonding配置文件/etc/modprobe.d/bond0.conf cat /etc/modprobe.d/bond0.confalias bond0 bondingoptions bond0 mode=1 millmon=1004 防止机器只有一条链路启动,无法初始化bond0cat /etc/rc.localifup eth0ifup eth15 重启网络服务,使配置生效service network restartservice NetworkManager stopchkconfig NetworkManager off 开机不启动ifconfig bond0 查看信息cat /proc/net/bonding/bond0Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2015) Bonding Mode: load balancing (round-robin)MII Status: upMII Polling Interval (ms): 100Up Delay (ms): 0Down Delay (ms): 0Slave Interface: eth1MII Status: upSpeed: 1000 MbpsDuplex: fullLink Failure Count: 0Permanent HW addr: 00:50:56:27:46:11Slave queue ID: 0Slave Interface: eth2MII Status: upSpeed: 1000 MbpsDuplex: fullLink Failure Count: 0Permanent HW addr: 00:50:56:2f:33:82Slave queue ID: 0miimon是指多久时间要检查网路一次,单位是ms(毫秒) 这边的100,是100ms,即是0.1秒意思是假设其中有一条网路断线,会在0.1秒内自动备援mode共有七种(0~6)mode=0:平衡负载模式,有自动备援,但需要”Switch”支援及设定。
Linux下双网卡绑定(bonding技术)
Linux下双⽹卡绑定(bonding技术)2013-08-20 15:39:31现在很多服务器都⾃带双千兆⽹⼝,利⽤⽹卡绑定既能增加⽹络带宽,同时⼜能做相应的冗余,⽬前应⽤于很多的场景。
linux操作系统下⾃带的⽹卡绑定模式,Linux bonding驱动提供了⼀个把多个⽹络接⼝设备捆绑为单个⽹络接⼝设置来使⽤,⽤于⽹络负载均衡及⽹络冗余。
当然现在⽹卡产商也会出⼀些针对windows操作系统⽹卡管理软件来做⽹卡绑定(windows操作系统没有⽹卡绑定功能需要第三⽅⽀持)。
我们公司是做分布式⽂件系统的,很多项⽬都⽤到⽹卡绑定来提⾼性能。
在⽹络找了很多资料,也做了⼤量的测试,下⾯就⽹卡绑定谈⼀下⾃⼰的看法。
⼀、 Bonding的应⽤1、⽹络负载均衡对于bonding的⽹络负载均衡是我们在⽂件服务器中常⽤到的,⽐如把三块⽹卡,当做⼀块来⽤,解决⼀个IP地址,流量过⼤,服务器⽹络压⼒过⼤的问题。
如果在内⽹中,⽂件服务器为了管理和应⽤上的⽅便,⼤多是⽤同⼀个IP地址。
对于⼀个百M的本地⽹络来说,⽂件服务器在多个⽤户同时使⽤的情况下,⽹络压⼒是极⼤的,为了解决同⼀个IP地址,突破流量的限制,毕竟⽹线和⽹卡对数据的吞吐量是有限制的。
如果在有限的资源的情况下,实现⽹络负载均衡,最好的办法就是bonding 。
2、⽹络冗余对于服务器来说,⽹络设备的稳定也是⽐较重要的,特别是⽹卡。
⼤多通过硬件设备的冗余来提供服务器的可靠性和安全性,⽐如电源。
bonding 也能为⽹卡提供冗余的⽀持。
把⽹个⽹卡绑定到⼀个IP地址,当⼀块⽹卡发⽣物理性损坏的情况下,另⼀块⽹卡也能提供正常的服务。
⼆、 Bonding的原理什么是bonding需要从⽹卡的混杂(promisc)模式说起。
我们知道,在正常情况下,⽹卡只接收⽬的硬件地址(MAC Address)是⾃⾝Mac的以太⽹帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。
但是⽹卡也⽀持另外⼀种被称为混杂promisc的模式,可以接收⽹络上所有的帧,⽐如说tcpdump,就是运⾏在这个模式下。
Linux双网卡绑定和解除
Linux双⽹卡绑定和解除⼀、传统的bond模式⽹卡绑定⼀定要在服务管理中关闭NetworkManager服务并禁⽤⾃动启动,因为centos中NetworkManager服务与network服务冲突,默认是由NetworkManager接管⽹络服务,所以传统⽅式重启会出现启动失败,错误⽇志⼀般如下所⽰,管理员就得回到机房接显⽰器配置⽹络连接。
以绑定eth0和eth1为例1.通过vim设置eth0的IP地址和eth1的IP地址。
[root@x101 network-scripts]# vim ifcfg-eth0DEVICE=eth0ONBOOT=yesBOOTPROTO=noneTYPE=EthernetMASTER=bond0 //将⽹卡指向bond0SLAVE=yesUSERCTL=[yes|no](⾮root⽤户是否可以控制该设备)[root@x101 network-scripts]# vim ifcfg-eth1DEVICE=eth1ONBOOT=yesNETBOOT=yesBOOTPROTO=noneTYPE=EthernetMASTER=bond0 //将⽹卡指向bond0SLAVE=yesUSERCTL=[yes|no](⾮root⽤户是否可以控制该设备)2.新建 /etc/sysconfig/network-scripts/ifcfg-bond0绑定配置⽂件[root@x101 network-scripts]# cat ifcfg-bond0DEVICE=bond0ONBOOT=yesNETBOOT=yesBOOTPROTO=noneTYPE=EthernetIPADDR=192.168.0.106PREFIX=24DNS=192.168.0.1NM_CONTROLLED=no[root@x101 network-scripts]#5.创建⽹卡绑定的驱动⽂件/etc/modprobe.d/⾃定义.conf,使得绑定后的⽹卡bond0能够⽀持绑定技术(bonding),同时定义⽹卡以mode6模式进⾏绑定,且出故障时⾃动切换时间为100毫秒ms,添加alias bond0 bondingoptions bond0 mode=6 miimon=100 max_bonds=2miimon是指多久时间要检查⽹路⼀次,单位是ms(毫秒)。
linux下多网卡绑定
linux下多网卡绑定假定将eth0,eth1,eth2,eth3绑定成bond0,步骤如下:(1) #vi /etc/modprobe.conf, 添加如下2行:alias bond0 bondingoptions bonding miimon=100 mode=4当mode=0时,交换机相应端口不需要做trunk,但是从节点上ping网关(192.*.*.*)有较大的延时。
解决此问题的办法是把mode改成4,同时配置交换机相应端口开启链路聚合并捆绑为trunk。
在modprobe.conf文件中,miimon参数用来监测网卡物理连接,建议至少设为100mode参数用来设置绑定模式0 负载均衡(round robin策略)1 active/backup模式,同一时间只有一块网卡使用。
2 负载均衡(xor算法)3 广播模式4 802.3ad模式,lagp协议,带宽翻倍。
模式不能写错这里很容易出现不稳定的情况,多半是这里模式选择错了,所以在实施的时候需要小心,把模式确定了,然后在动手。
(2)修改/etc/sysconfig/network-scripts/目录下的ifcfg-bond0, ifcfg-eth0, i fcfg-eth1,ifcfg-eth2,ifcfg-eth3. 具体内容如下:[root@io102 network-scripts]# pwd/etc/sysconfig/network-scripts[root@io102 network-scripts]# cat ifcfg-bond0DEVICE=bond0BOOTPROTE=staticONBOOT=yesIPADDR=192.*.*.*NETMASK=255.255.255.0USERTCL=noGATEWAY=192.*.*.*[root@io102 network-scripts]# cat ifcfg-eth0DEVICE=eth0BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes[root@io102 network-scripts]# cat ifcfg-eth1 DEVICE=eth1BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes[root@io102 network-scripts]# cat ifcfg-eth2 DEVICE=eth2BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes[root@io102 network-scripts]# cat ifcfg-eth3 DEVICE=eth3BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes(3)查看bond0的状态[root@io102 ~]# more /proc/net/bonding/bond0Ethernet Channel Bonding Driver: v2.6.3-rh (June 8, 2005)Bonding Mode: IEEE 802.3ad Dynamic link aggregationMII Status: upMII Polling Interval (ms): 100Up Delay (ms): 0Down Delay (ms): 0802.3ad infoLACP rate: slowActive Aggregator Info:Aggregator ID: 1Number of ports: 4Actor Key: 17Partner Key: 480Partner Mac Address: 00:12:f2:cd:68:00Slave Interface: eth0MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:73:56:26Aggregator ID: 1Slave Interface: eth1MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:73:56:a2Aggregator ID: 1Slave Interface: eth2MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:d5:34:d2Aggregator ID: 1Slave Interface: eth3MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:d5:34:d0Aggregator ID: 1然后在交换机(这里的交换机是Foundry)端做TRUNK将同一台服务器的多个网卡捆绑成一条逻辑的线路来使用,提高服务器与交换机之间的带宽,并且能够负载均衡多个网卡上的流量,以及多个网卡之间的冗余当其中一个网卡坏了其它的网卡会平分坏网卡上的流量,并不影响服务器与交换机之间的数据转发。
Linux双网卡绑定一个IP
Linux双网卡绑定一个IP,实现容错或负载均衡其实早在08年9月就做了这个了,只不过最近在学RHCE的时候发现也有bond方面的内容。
发出来大家也学习一下。
实验环境:CentOS5.3 eth0 eth11.先修改eth0 和eht1这2个网卡配置文件。
目录在(/etc/sysconfig/network-scripts/)如下:DEVICE=eth0ONBOOT=yesMASTER=bond0BOOTPROTO=none2. eth1也是同样的修改。
如下:DEVICE=eth1ONBOOT=yesMASTER=bond0BOOTPROTO=none3.新建一个虚拟网卡bond0,创建bond0的配置文件ifcfg-bond0。
如下:DEVICE=bond0ONBOOT=yesBOOTPROTO=staticIPADDR=192.168.0.223NETMASK=255.255.255.0BROADCAST=192.168.0.255TYPE=Ethernet4.修改/etc/modprobe.conf添加内容如下:alias bond0 bondingoptions bond0 miimon=100 mode=0注意:mode可以为0,1,2,3。
0为负载均衡、1为失效保护,我们一般用到0。
关于:modprobe.conf文件在AS版本里面有,linux9.0的是这个modules.conf文件。
5.修改/etc/rc.d/rc.local添加内容如下:ifenslave bond0 eth0 eth1route add -net 192.168.0.255 netmask 255.255.255.0 bond0 或者route add default gw 192.168.0.255 –interface bond0OK 完成。
验证:1.可以不停的ping一个地址,用ifconfig会发现eth0和eth1的RX、TX(xx.x KiB)会同时增长,总数等于bond0的RX、TX(xx.x KiB)。
Linux中双网卡绑定配置
Linux系统下双网卡bonding的配置方法第一步、编辑虚拟网络接口配置文件。
vi /etc/sysconfig/network-scripts/ ifcfg-bond0[root@FTE-1 network-scripts]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0[root@FTE-1 network-scripts]# vi ifcfg-bond0DEVICE=bond0 -------绑定设备名称#BOOTPROTO=static#HWADDR=78:2B:CB:53:D3:ECIPADDR=172.27.120.31NETMASK=255.255.255.0USERCTL=no -------不允许非root用户控制设备ONBOOT=yesTYPE=Ethernet这里要注意,不要指定单个网卡的IP 地址、子网掩码或网卡ID。
将上述信息指定到虚拟适配器(bonding)中即可。
第二步、编辑真实网卡的配置文件(建议修改之前做好备份)[root@FTE-1 network-scripts]# vi /etc/sysconfig/network-scripts/ifcfg-eth0DEVICE=eth0ONBOOT=yesTYPE=EthernetUSERCTL=noMASTER=bond0SLAVE=yes[root@FTE-1 network-scripts]# vi /etc/sysconfig/network-scripts/ifcfg-eth1DEVICE=eth1#HWADDR=78:2B:CB:53:E0:19ONBOOT=yesUSERCTL=noMASTER=bond0SLAVE=yes注意:真实网卡不能再设置ip地址了,按需要把所要绑定的真实网卡都按这个设置,主要是MASTER=bond0 和slave=yes 一定不要弄错(简单的方法就是修改一个然后拷贝再修改)第三步、修改/etc/modprobe.conf 文件加入如下两行(建议做好备份)alias bond0 bondingoptions bond0 miimon=100 mode=1说明:miimon是用来进行链路监测的。
Linux系统配置双网卡绑定bond0
Linux系统配置双⽹卡绑定bond01、bonding简述双⽹卡配置设置虚拟为⼀个⽹卡实现⽹卡的冗余,其中⼀个⽹卡坏掉后⽹络通信仍可正常使⽤,实现⽹卡层⾯的负载均衡和⾼可⽤性。
现在⼀般的企业都会使⽤双⽹卡接⼊,这样既能添加⽹络带宽,同时⼜能做相应的冗余,可以说是好处多多。
⽽⼀般企业都会使⽤linux操作系统下⾃带的⽹卡绑定模式,当然现在⽹卡产商也会出⼀些针对windows操作系统⽹卡管理软件来做⽹卡绑定(windows操作系统没有⽹卡绑定功能需要第三⽅⽀持)。
1.1 bonding原理⽹卡⼯作在混杂(promisc)模式,接收到达⽹卡的所有数据包,tcpdump⼯作⽤的也是混杂模式(promisc),将两块⽹卡的MAC地址修改为相同接收特定MAC的数据帧,然后把相应的数据帧传送给bond驱动程序进⾏处理。
1.2 Bonding模式(bonding mode)轮询策略(round robin),mode=0,按照设备顺序依次传输数据包,提供负载均衡和容错能⼒主备策略(active-backup),mode=1,只有主⽹卡处于⼯作状态,备⽹卡处于备⽤状态,主⽹卡坏掉后备⽹卡开始⼯作,提供容错能⼒异或策略(load balancing (xor)),mode=2,根据源MAC地址和⽬的MAC地址进⾏异或计算的结果来选择传输设备,提供负载均衡和容错能⼒⼴播策略(fault-tolerance (broadcast)),mode=3,将所有数据包传输给所有接⼝通过全部设备来传输所有数据,⼀个报⽂会复制两份通过bond下的两个⽹卡分别发送出去,提供⾼容错能⼒动态链接聚合(lacp),mode=4,按照802.3ad协议的聚合⾃动配置来共享相同的传输速度,⽹卡带宽最⾼可以翻倍,链路聚合控制协议(LACP)⾃动通知交换机聚合哪些端⼝,需要交换机⽀持 802.3ad协议,提供容错能⼒输出负载均衡模式(transmit load balancing),mode=5,输出负载均衡模式,只有输出实现负载均衡,输⼊数据时则只选定其中⼀块⽹卡接收,需要⽹卡和驱动⽀持ethtool命令输⼊/输出负载均衡模式(adaptive load balancing),mode=6,输⼊和输出都实现负载均衡,需要⽹卡和驱动⽀持ethtool命令2、⽹卡配置⽂件的配置2.1 配置环境 环境:系统CentOS 6.7 + 虚拟机 VMware 12 ⾄少两块物理⽹卡(VMware上添加eth0,eth1) 2.2 需要添加或修改的配置⽂件有5个(mode=1) 这5个配置⽂件是: /etc/sysconfig/network-scripts/ifcfg-eth{0,1} /etc/sysconfig/network-scripts/ifcfg-bond0 /etc/modprobe.d/dist.conf /etc/rc.local2.2.1 /etc/sysconfig/network-scripts/ifcfg-{eth0,eth1,bonding0}修改或添加提⽰:先备份好eth0和eth1,再修改这⼏个⽂件以下是修改好的三个⽹卡配置⽂件的参数[root@ant network-scripts]# vimdiff ifcfg-eth0 ifcfg-eth1 ifcfg-bond02.2.2 修改/etc/modprobe.d/dist.conf⽂件在此⽂件中添加以下内容:alias bond0 bonding,表⽰系统在启动时加载bonding模块,对外虚拟⽹络接⼝设备为 bond0miimon=100,表⽰系统每100ms监测⼀次链路连接状态,如果有⼀条线路不通就转⼊另⼀条线mode=1,表⽰绑定模式为1primary=eth0,系统⾸先eth0作为bond0接⼝与外界信息的传输接⼝2.2.3 修改配置⽂件/etc/rc.local在此⽂件中添加以下内容:modprobe bonding miimon=100 mode=12.2.4 重启⽹络(service network restart),并查看三个接⼝的mac地址使⽤ifconfig命令显⽰,bond0,eth1,eth2物理地址相同,提⽰三个⽹卡均通过⼀个ip主机端⼝与外界通信但是,我们可以看到,在mode=1的情况下,当前bond0采⽤eth0通信,实际的物理⽹卡地址见下图:3、验证⽹络的连通性没有丢包,⽹络连通性可。
linux下双网卡绑定配置
在linux下如何做双网卡绑定实现冗余?一、Linux Channel Bonding目前在各个发行版本的 Linux 中,使用最普遍的内核版本应该就是 2.4.x的版本了,而Linux Channel Bonding,在 Linux 2.4 的内核中,就提供了 bonding 的驱动,可以支持把多个网络适配器集合在一起,当作一个网络适配器来使用。
在 Linux 下,网卡的高可用性是通过 MII 或者 ETHTOOL 的状态监测来实现的,所以,需要检查系统中的网络适配器是否支持 MII 或者 ETHTOOL 的连状态监测。
可以用命令 "ethtool eth0" 来检查,如果显示的 "Link detected:" 信息与实现的连接状态一致,就没有问题。
如果系统中的网络适配器不支持 MII 或者 ETHTOOL 状态监测,当连接失效时,系统就不能检测到,同时,在 bonding 驱动加载时,会记录一条不支持 MII 和 ETHTOOL 的警告信息。
下面简单介绍一下实现的基本方法:首先,我们需要打开内核对 bonding 支持。
设置内核 "make menuconfig/xconfig/config",在"Network device support"区段中选择"Bonding driver support",建议设置该驱动程序为模块,这样才能支持给驱动传递参数和设置多个bonding设备。
生成并安装新的内核和模块。
Bonding 的设置我们需要在 /etc/modules.conf 中加入两行,这样才可以在设置了 bond 设置后,系统启动的时候自动加载 bonding 的驱动程序alias bond0 bondingoptions bond0 miimon=100 mode=1当mode=1时为主备模式,mode=0时为负载均衡模式。
LINUX系统下双网卡双网关设置(含五篇)
LINUX系统下双网卡双网关设置(含五篇)第一篇:LINUX系统下双网卡双网关设置由于电信和网通之间互联互通的问题,很多人选择双线路机房,所谓双线路机房就是拥有两条出口,一条电信一条网通。
最近在一个双线路机房测试一台服务器,打算作为论坛的数据库服务器使用,服务器操作系统为Linux。
计划配置为双IP,双域名,使得浏览者通过电信和网通两条线路都能正常访问服务器,而且各走各的,互不影响。
在配置网络的时候遇到了问题,由于Linux默认只有一个网关,在网络上查询了很久,找到一个解决方案,因此整理了一下。
感谢原文作者jac003ke。
服务器操作系统RedHat linux 9,设置两张路由表1.vi /etc/iproute2/rt_tables,增加网通和电信两个路由表251 tel电信路由表252 cnc 网通路由表2.给网卡绑定两个地址用于电信和网通两个线路ip addr add 192.168.0.2/24 dev eth0ip addr add 10.0.0.2/24 dev eth13、分别设置电信和网通的路由表电信路由表:#确保找到本地子网ip route add 192.168.0..0/24 via 192.168.0.2 dev eth0 table tel#内部回环网络ip route add 127.0.0.0/8 dev lo table tel#192.168.0.1为电信网络默认网关地址ip route add default via 192.168.0.1 dev eth0 table tel网通线路路由表:#确保找到本地子网ip route add 10.0.0.0/24 via 10.0.0.2 dev eth1 table cnc#内部回环网络ip route add 127.0.0.0/8 dev lo table cnc#10.0.0.1是网通的默认网关ip route add default via 10.0.0.1 dev eth1 table cnc4、电信和网通各有自己的路由表,制定策略,让192.168.0.2的回应数据包走电信的路由表路由,10.0.0.2的回应数据包走网通的路由表路由ip rule add from 192.168.0.1 table telip rule add from 10.0.0.1 table cnc第二篇:双网卡连接内网外网--默认网关设置问题双网卡连接内网外网--默认网关设置问题2010年06月07日星期一14:36首先你的机器需要有两块网卡,分别接到两台交换机上,internet地址:192.168.1.8,子网掩码:255.255.255.0,网关:192.168.1.1内部网地址:172.23.1.8,子网掩码:255.255.255.0,网关:172.23.1.1如果按正常的设置方法设置每块网卡的ip地址和网关,再cmd下使用 route print查看时会看到Network Destination Netmask Gateway Interface Metric0.0.0.0 0.0.0.0 192.168.1.1 192.168.1.80.0.0.0 0.0.0.0 172.23.1.1 172.23.1.8即指向0.0.0.0的有两个网关,这样就会出现路由冲突,两个网络都不能访问。
linux双网卡绑定配置
实验的操作系统是Redhat Linux Enterprise 3.0绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片。
1.编辑虚拟网络接口配置文件,指定网卡IPvi /etc/sysconfig/ network-scripts/ ifcfg-bond0[root@rhas-13 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond02 #vi ifcfg-bond0将第一行改成 DEVICE=bond0# cat ifcfg-bond0DEVICE=bond0BOOTPROTO=staticIPADDR=172.31.0.13NETMASK=255.255.252.0BROADCAST=172.31.3.254ONBOOT=yesTYPE=Ethernet这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。
将上述信息指定到虚拟适配器(bonding)中即可。
[root@rhas-13 network-scripts]# cat ifcfg-eth0DEVICE=eth0ONBOOT=yesBOOTPROTO=dhcp[root@rhas-13 network-scripts]# cat ifcfg-eth1DEVICE=eth0ONBOOT=yesBOOTPROTO=dhcp3 # vi /etc/modules.conf编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0加入下列两行alias bond0 bondingoptions bond0 miimon=100 mode=1说明:miimon是用来进行链路监测的。
比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。
Linux下安装双网卡绑定
Linux下安装双网卡绑定1需要彻底关闭NetworlManger 服务,否则会和bond网卡冲突service NetworkManager stopchkconfig NetworkManager off2.修改vim /etc/sysconfig/network-scripts/ifcfg-bond0 配置文件DEVICE=bond0BOOTPROTO=noneIPADDR=?NETMASK=255.255.25.0ONBOOT=yesUSERCTL=noBONDING_OPTS="mode=1 miimon=50" //设置网卡的运行模式,也可以在配置文件中设置3.修改vim /etc/sysconfig/network-scripts/ifcfg-eth0配置文件DEVICE=eth0BOOTPROTO=noneONBOOT=yesMASTER=bond0 //将网卡指向bond0SLAVE=yes //启用双网卡USERCTL=no4.修改vim /etc/sysconfig/network-scripts/ifcfg-eth1配置文件DEVICE=eth1BOOTPROTO=noneONBOOT=yesMASTER=bond0 //将网卡指向bond0SLAVE=yes //启用双网卡USERCTL=no5.修改内核文件vim /etc/modprobe.d/dist.conf文件添加以下两行:alias bond0 bondingoptions bond0 mode=1 miimon=50 //如果上面设置了,这里就不要设了6:修改vim /etc/rc.local,添加内容如下:ifenslave bond0 eth0 eth1 //这个也可以不设,重启以后就可以生效了,这也是RHEL6中增加的7.系统需要重启生效,这时,只有bond0的网卡有ip地址,eth0和eth1网卡应该没有ip就可以了,查看网卡运行的状态,使用命令cat /proc/net/boning/bond0可以看到那块网卡生效。
Linux-双网卡绑定bond详解
Linux-双⽹卡绑定bond详解1、什么是bond⽹卡bond是通过多张物理⽹卡绑定为⼀个逻辑⽹卡,实现本地⽹卡的冗余,带宽扩容和负载均衡,在⽣产场景中是⼀种常⽤的技术。
Kernels 2.4.12及以后的版本均供bonding模块,以前的版本可以通过patch实现。
可以通过以下命令确定内核是否⽀持 bonding:[root@lixin network-scripts] #cat /boot/config-2.6.32-573.el6.x86_64 |grep -i bondingCONFIG_BONDING=m[root@lixin network-scripts] #2、bond的模式bond的模式常⽤的有两种:mode=0(balance-rr)表⽰负载分担round-robin,并且是轮询的⽅式⽐如第⼀个包⾛eth0,第⼆个包⾛eth1,直到数据包发送完毕。
优点:流量提⾼⼀倍缺点:需要接⼊交换机做端⼝聚合,否则可能⽆法使⽤mode=1(active-backup)表⽰主备模式,即同时只有1块⽹卡在⼯作。
优点:冗余性⾼缺点:链路利⽤率低,两块⽹卡只有1块在⼯作bond其他模式:mode=2(balance-xor)(平衡策略)表⽰XOR Hash负载分担,和交换机的聚合强制不协商⽅式配合。
(需要xmit_hash_policy,需要交换机配置port channel)特点:基于指定的传输HASH策略传输数据包。
缺省的策略是:(源MAC地址 XOR ⽬标MAC地址) % slave数量。
其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能⼒mode=3(broadcast)(⼴播策略)表⽰所有包从所有⽹络接⼝发出,这个不均衡,只有冗余机制,但过于浪费资源。
此模式适⽤于⾦融⾏业,因为他们需要⾼可靠性的⽹络,不允许出现任何问题。
需要和交换机的聚合强制不协商⽅式配合。
linux双网卡绑定
TYPE=Ethernet
这里要主意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。
[root@rhas-13 network-scripts]# cat ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
在mode=0 负载均衡工作模式,他能提供两倍的带宽,下我们来看一下网卡的配置信息
[root@rhas-13 root]# ifconfig
bond0 Link encap:Ethernet HWaddr 00:0E:7F:25:D9:8B
inet addr:172.31.0.13 Bcast:172.31.3.255 Mask:255.255.252.0
alias bond0 bonding
options bond0 miimon=100 mode=0
6. 说明
如果是主备冗余模式,需将
options bond0 miimon=100 mode=0中
mode 改为1
其它改为
options bond0 miimon=100 mode=1 primary=eth0
UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1
RX packets:9572 errors:0 dropped:0 overruns:0 frame:0
TX packets:480 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:753739 (736.0 Kb) TX bytes:0 (0.0 b)
linux双网卡绑定及防漂移
问题:四川Greenplum服务器双网卡绑定,重启后网卡组IP漂移到另一网卡组,掉包率严重,导致gp 数据库无法正常使用。
处理办法:在/etc/sysconfig/network-scripts/ ifcfg-ethx中添加网卡mac地址,使其无论先后启动都不会发生IP漂移。
结果:服务器正常工作。
处理过程如下:[root@master ~]# ifconfig -abond0 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BBinet addr:192.168.16.101 Bcast:192.168.16.255 Mask:255.255.255.0inet6 addr: fe80::215:17ff:fea7:f8bb/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:278192 errors:0 dropped:0 overruns:0 frame:0TX packets:5290 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:31166606 (29.7 MiB) TX bytes:556330 (543.2 KiB)bond1 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAinet addr:133.37.253.108 Bcast:133.37.253.255 Mask:255.255.255.0inet6 addr: fe80::215:17ff:fea7:f8ba/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:297026 errors:0 dropped:0 overruns:0 frame:0TX packets:21969 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:31633832 (30.1 MiB) TX bytes:3147058 (3.0 MiB)eth0 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:297025 errors:0 dropped:0 overruns:0 frame:0TX packets:21670 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:31633772 (30.1 MiB) TX bytes:3107804 (2.9 MiB)Memory:fdfa0000-fdfc0000eth1 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAUP BROADCAST SLAVE MULTICAST MTU:1500 Metric:1RX packets:1 errors:0 dropped:0 overruns:0 frame:0TX packets:299 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:60 (60.0 b) TX bytes:39254 (38.3 KiB)Memory:fd960000-fd980000eth2 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BBUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:274623 errors:0 dropped:0 overruns:0 frame:0TX packets:2643 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:29906462 (28.5 MiB) TX bytes:259526 (253.4 KiB)Memory:fdfe0000-fe000000eth3 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BBUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:3569 errors:0 dropped:0 overruns:0 frame:0TX packets:2647 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:1260144 (1.2 MiB) TX bytes:296804 (289.8 KiB)Memory:fd9e0000-fda00000lo Link encap:Local Loopbackinet addr:127.0.0.1 Mask:255.0.0.0inet6 addr: ::1/128 Scope:HostUP LOOPBACK RUNNING MTU:16436 Metric:1RX packets:1373 errors:0 dropped:0 overruns:0 frame:0TX packets:1373 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:2445576 (2.3 MiB) TX bytes:2445576 (2.3 MiB)sit0 Link encap:IPv6-in-IPv4NOARP MTU:1480 Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0TX packets:0 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)配置的负载均衡模式没有发挥太大作用。
Linux下多网卡绑定bond及模式介绍
Linux下多⽹卡绑定bond及模式介绍【介绍】⽹卡bond⼀般主要⽤于⽹络吞吐量很⼤,以及对于⽹络稳定性要求较⾼的场景。
主要是通过将多个物理⽹卡绑定到⼀个逻辑⽹卡上,实现了本地⽹卡的冗余,带宽扩容以及负载均衡。
Linux下⼀共有七种⽹卡bond⽅式,实现以上某个或某⼏个具体功能。
最常见的三种模式是bond0,bond1,bond6.【bond0】平衡轮循环策略,有⾃动备援,不过需要"Switch"⽀援及设定。
balance-rr(Round-robin policy)⽅式:传输数据包的顺序是依次传输(即:第⼀个包⾛eth0,第⼆个包就⾛eth1……,⼀直到所有的数据包传输完成)。
优点:提供负载均衡和容错能⼒。
缺点:同⼀个链接或者会话的数据包从不同的接⼝发出的话,中间会经过不同的链路,在客户端可能会出现数据包⽆法有序到达的情况,⽽⽆序到达的数据包将会被要求重新发送,⽹络吞吐量反⽽会下降。
【bond1】主-备份策略active-backup(Active -backup policy)⽅式:只有⼀个设备处于活动状态,⼀个宕掉之后另⼀个马上切换为主设备。
mac地址为外部可见,从外⾯看,bond的mac地址是唯⼀的,switch不会发⽣混乱。
优点:提⾼了⽹络连接的可靠性。
缺点:此模式只提供容错能⼒,资源利⽤性较低,只有⼀个接⼝处于active状态,在有N个⽹络接⼝bond 的状态下,利⽤率只有1/N。
【bond2】平衡策略balance-xor(XOR policy)⽅式:基于特性的Hash算法传输数据包。
缺省的策略为:(源MAC地址 XOR ⽬标MAC地址) % slave数量。
# XRO为异或运算,值不同时结果为1,相同为0可以通过xmit_hash_policy选项设置传输策略。
特点:提供负载均衡和容错能⼒。
【bond3】⼴播策略broadcast⽅式:在每个slave接⼝上传输每⼀个数据包。
Linux 多网卡识别顺序邦定
使用linux系统时会出现这样的情况,当你安装了某个网卡的驱动程序时,或者安装了与网卡相关的程序后。
网卡会出现所谓的漂移现象。
(注意:不是飘逸)。
可能的表象为:(1):网卡顺序颠倒,比如之前你的网线连接的网口为eth0,当安装某个网卡的驱动后,可能它的名字变为eth0或者eth3,等等情况。
(2):网卡名字改变,这种情况倒不是eth0到eth1的改变,而是很诡异的变化,比如eth0找不到了,多了个网卡名字叫 __tmp3183921382193__这个确实让人很恼火。
因为有人可能会通过ifconfig | grep eth来获取信息从而完成一些开发工作,如果网卡名字变得乌七八糟了,程序肯定会出错。
(3):光口网卡和电口网卡顺序乱了,或者交叉。
总之我们的目的就是:能够指定某个网卡的名字为我们想要的物理设备。
做法如下:第一步,识别谁是谁。
要使用网卡,首现要知道哪个名字对应的哪个物理设备,做法为:从交换机拉一根网线,从上到下挨个接到网卡上面,注意每次只能接一个网卡,接上后通过ethtool命令来查看是否连着网线,比如[root@AS5 ~]# ethtool eth0Settings for eth0:Supported ports: [ MII ]Supported link modes: 10baseT/Half 10baseT/Full100baseT/Half 100baseT/Full1000baseT/FullSupports auto-negotiation: YesAdvertised link modes: 10baseT/Half 10baseT/Full100baseT/Half 100baseT/Full1000baseT/FullAdvertised auto-negotiation: YesSpeed: 100Mb/sDuplex: FullPort: MIIPHYAD: 2Transceiver: externalAuto-negotiation: onSupports Wake-on: gWake-on: dLink detected: yes看到了eth0的状态为连接着网线。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
问题:四川Greenplum服务器双网卡绑定,重启后网卡组IP漂移到另一网卡组,掉包率严重,导致gp数据库无法正常使用。
处理办法:在/etc/sysconfig/network-scripts/ ifcfg-ethx中添加网卡mac地址,使其无论先后启动都不会发生IP漂移。
结果:服务器正常工作。
处理过程如下:[root@master ~]# ifconfig -abond0 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BBinet addr:192.168.16.101 Bcast:192.168.16.255 Mask:255.255.255.0inet6 addr: fe80::215:17ff:fea7:f8bb/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:278192 errors:0 dropped:0 overruns:0 frame:0TX packets:5290 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:31166606 (29.7 MiB) TX bytes:556330 (543.2 KiB)bond1 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAinet addr:133.37.253.108 Bcast:133.37.253.255 Mask:255.255.255.0inet6 addr: fe80::215:17ff:fea7:f8ba/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:297026 errors:0 dropped:0 overruns:0 frame:0TX packets:21969 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:31633832 (30.1 MiB) TX bytes:3147058 (3.0 MiB)eth0 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:297025 errors:0 dropped:0 overruns:0 frame:0TX packets:21670 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:31633772 (30.1 MiB) TX bytes:3107804 (2.9 MiB)Memory:fdfa0000-fdfc0000eth1 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAUP BROADCAST SLAVE MULTICAST MTU:1500 Metric:1 RX packets:1 errors:0 dropped:0 overruns:0 frame:0TX packets:299 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:60 (60.0 b) TX bytes:39254 (38.3 KiB)Memory:fd960000-fd980000eth2 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BBUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:274623 errors:0 dropped:0 overruns:0 frame:0TX packets:2643 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:29906462 (28.5 MiB) TX bytes:259526 (253.4 KiB)Memory:fdfe0000-fe000000eth3 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BBUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500Metric:1RX packets:3569 errors:0 dropped:0 overruns:0 frame:0 TX packets:2647 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:1260144 (1.2 MiB) TX bytes:296804 (289.8 KiB)Memory:fd9e0000-fda00000lo Link encap:Local Loopbackinet addr:127.0.0.1 Mask:255.0.0.0inet6 addr: ::1/128 Scope:HostUP LOOPBACK RUNNING MTU:16436 Metric:1RX packets:1373 errors:0 dropped:0 overruns:0 frame:0 TX packets:1373 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:2445576 (2.3 MiB) TX bytes:2445576 (2.3 MiB)sit0 Link encap:IPv6-in-IPv4NOARP MTU:1480 Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)配置的负载均衡模式没有发挥太大作用。
[root@master ~]# df -k文件系统 1K-块已用可用已用% 挂载点/dev/mapper/VolGroup00-LogVol00171180808 14000088 148344832 9% //dev/sda1 101086 12486 83381 14% /boot tmpfs 8211156 0 8211156 0% /dev/shm/dev/sdb 768990264 245014772 484913016 34%/gp_data1/dev/sdc1 492154880 143265444 323889400 31% /gp_data2/dev/sdd1 1268257168 422509272 781324116 36% /gp_data3考虑到linux操作系统下,网卡eth0\eth1,eth2\eth3的识别方式是由OS 发现哪块网卡先初始化完毕,就视作eth0\eth1,另一块初始化完成慢的就是eth2\eth3了。
所以在/etc/sysconfig/network-scripts 下修改ifcfg-eth x配置:此处需要注意的是:原来的双网卡作了绑定后,ifconfig –a看到的网卡mac地址只是其中一块物理网卡的地址,需要将原来做的网卡绑定删除后,ifconfig –a查到的才是正确的。
[root@master network-scripts]# vi ifcfg-eth0# Intel Corporation 82575EB Gigabit Network Connection DEVICE=eth1BOOTPROTO=noneONBOOT=yesHWADDR=00:15:17:A7:F8:BAMASTER=bond1[root@master network-scripts]# vi ifcfg-eth1# Intel Corporation 82575EB Gigabit Network Connection DEVICE=eth1BOOTPROTO=noneONBOOT=yesHWADDR=00:15:17:A7:F8:BBMASTER=bond1[root@master network-scripts]# vi ifcfg-eth2# Intel Corporation 82571EB Gigabit Ethernet Controller DEVICE=eth2BOOTPROTO=noneONBOOT=yesHWADDR=00:25:9E:35:6B:16MASTER=bond0[root@master network-scripts]# vi ifcfg-eth3# Intel Corporation 82571EB Gigabit Ethernet Controller DEVICE=eth3BOOTPROTO=noneONBOOT=yesHWADDR=00:25:9E:35:6B:17MASTER=bond0[root@master ~]# cat /etc/sysconfig/network-scripts/ifcfg-bond0 # Intel Corporation 82575EB Gigabit Network Connection DEVICE=bond0BOOTPROTO=staticONBOOT=yesIPADDR=192.168.16.101NETMASK=255.255.255.0BROADCAST=192.168.16.255TYPE=Ethernet[root@master ~]# cat /etc/sysconfig/network-scripts/ifcfg-bond1 # Intel Corporation 82575EB Gigabit Network Connection DEVICE=bond1BOOTPROTO=staticONBOOT=yesIPADDR=133.37.253.108NETMASK=255.255.255.0BROADCAST=133.37.253.255TYPE=EthernetGATEWAY=133.37.253.100[root@master ~]# cat /etc/modprobe.confalias eth0 igbalias eth1 igbalias eth2 e1000ealias eth3 e1000ealias scsi_hostadapter mptbasealias scsi_hostadapter1 mptsasalias scsi_hostadapter2 arcmsralias scsi_hostadapter3 usb-storagealias bond0 bondingoptions bond0 miimon=100 mode=0alias bond1 bondingoptions bond1 miimon=100 mode=0[root@master network-scripts]# vi /etc/rc.d/rc.local#!/bin/sh## This script will be executed *after* all the other init scripts. # You can put your own initialization stuff in here if you don't # want to do the full Sys V style init stuff.touch /var/lock/subsys/localifenslave bond1 eth0 eth1ifenslave bond0 eth2 eth3重启服务器:[root@master ~]# ifconfig -abond0 Link encap:Ethernet HWaddr 00:25:9E:35:6B:16inet addr:192.168.16.101 Bcast:192.168.16.255 Mask:255.255.255.0inet6 addr: fe80::225:9eff:fe35:6b16/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:1404391 errors:0 dropped:0 overruns:0 frame:0TX packets:2113096 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:103539491 (98.7 MiB) TX bytes:3194903538(2.9 GiB)bond1 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAinet addr:133.37.253.108 Bcast:133.37.253.255 Mask:255.255.255.0inet6 addr: fe80::215:17ff:fea7:f8ba/64 Scope:LinkUP BROADCAST RUNNING MASTER MULTICAST MTU:1500 Metric:1RX packets:15680 errors:0 dropped:0 overruns:0 frame:0 TX packets:4136 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:1659626 (1.5 MiB) TX bytes:1755113 (1.6 MiB)eth0 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:7827 errors:0 dropped:0 overruns:0 frame:0 TX packets:2070 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:830349 (810.8 KiB) TX bytes:882259 (861.5 KiB)Memory:fdfa0000-fdfc0000eth1 Link encap:Ethernet HWaddr 00:15:17:A7:F8:BAUP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:7853 errors:0 dropped:0 overruns:0 frame:0 TX packets:2066 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:829277 (809.8 KiB) TX bytes:872854 (852.3 KiB)Memory:fdfe0000-fe000000eth2 Link encap:Ethernet HWaddr 00:25:9E:35:6B:16UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:719472 errors:0 dropped:0 overruns:0 frame:0TX packets:1056845 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:53061809 (50.6 MiB) TX bytes:1597893970 (1.4 GiB)Memory:fd960000-fd980000eth3 Link encap:Ethernet HWaddr 00:25:9E:35:6B:16UP BROADCAST RUNNING SLAVE MULTICAST MTU:1500 Metric:1RX packets:684919 errors:0 dropped:0 overruns:0 frame:0TX packets:1056251 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:1000RX bytes:50477682 (48.1 MiB) TX bytes:1597009568 (1.4 GiB)Memory:fd9e0000-fda00000lo Link encap:Local Loopbackinet addr:127.0.0.1 Mask:255.0.0.0inet6 addr: ::1/128 Scope:HostUP LOOPBACK RUNNING MTU:16436 Metric:1RX packets:1548 errors:0 dropped:0 overruns:0 frame:0 TX packets:1548 errors:0 dropped:0 overruns:0 carrier:0collisions:0 txqueuelen:0RX bytes:2890437 (2.7 MiB) TX bytes:2890437 (2.7 MiB)sit0 Link encap:IPv6-in-IPv4NOARP MTU:1480 Metric:1RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0RX bytes:0 (0.0 b) TX bytes:0 (0.0 b)负载均衡情况良好!简单测试网络连接情况,无丢包现象发生。