服务器多网卡捆绑
Linux下双网卡绑定(bonding技术)
Linux下双⽹卡绑定(bonding技术)2013-08-20 15:39:31现在很多服务器都⾃带双千兆⽹⼝,利⽤⽹卡绑定既能增加⽹络带宽,同时⼜能做相应的冗余,⽬前应⽤于很多的场景。
linux操作系统下⾃带的⽹卡绑定模式,Linux bonding驱动提供了⼀个把多个⽹络接⼝设备捆绑为单个⽹络接⼝设置来使⽤,⽤于⽹络负载均衡及⽹络冗余。
当然现在⽹卡产商也会出⼀些针对windows操作系统⽹卡管理软件来做⽹卡绑定(windows操作系统没有⽹卡绑定功能需要第三⽅⽀持)。
我们公司是做分布式⽂件系统的,很多项⽬都⽤到⽹卡绑定来提⾼性能。
在⽹络找了很多资料,也做了⼤量的测试,下⾯就⽹卡绑定谈⼀下⾃⼰的看法。
⼀、 Bonding的应⽤1、⽹络负载均衡对于bonding的⽹络负载均衡是我们在⽂件服务器中常⽤到的,⽐如把三块⽹卡,当做⼀块来⽤,解决⼀个IP地址,流量过⼤,服务器⽹络压⼒过⼤的问题。
如果在内⽹中,⽂件服务器为了管理和应⽤上的⽅便,⼤多是⽤同⼀个IP地址。
对于⼀个百M的本地⽹络来说,⽂件服务器在多个⽤户同时使⽤的情况下,⽹络压⼒是极⼤的,为了解决同⼀个IP地址,突破流量的限制,毕竟⽹线和⽹卡对数据的吞吐量是有限制的。
如果在有限的资源的情况下,实现⽹络负载均衡,最好的办法就是bonding 。
2、⽹络冗余对于服务器来说,⽹络设备的稳定也是⽐较重要的,特别是⽹卡。
⼤多通过硬件设备的冗余来提供服务器的可靠性和安全性,⽐如电源。
bonding 也能为⽹卡提供冗余的⽀持。
把⽹个⽹卡绑定到⼀个IP地址,当⼀块⽹卡发⽣物理性损坏的情况下,另⼀块⽹卡也能提供正常的服务。
⼆、 Bonding的原理什么是bonding需要从⽹卡的混杂(promisc)模式说起。
我们知道,在正常情况下,⽹卡只接收⽬的硬件地址(MAC Address)是⾃⾝Mac的以太⽹帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。
但是⽹卡也⽀持另外⼀种被称为混杂promisc的模式,可以接收⽹络上所有的帧,⽐如说tcpdump,就是运⾏在这个模式下。
服务器 windows-intel双网卡绑定
适应性负载平衡(ALB) 在交换器端口、电缆或适配器发生故障时提供传输通信量的负载平衡及容错。 Intel(R) PROSet 分析各成员适配器的传输负载并在成员适配器之间平衡通信量。一个适配器接受所有接收通信量。 ALB 组有用于接收负载平衡 (RLB) 的选项。RLB 允许组在所有成员适配器之间平衡接收通信量。RLB 默认启用。 可以为组选择主适配器和次适配器,但在 RLB 禁用的情况下则不是必需的。如果启用了 RLB,则会自动指派主适配器。
8、同时弹出的还有 team1 的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。在此界面中还可进 行删除组和修改组的操作,单击“修改组”;
9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。即:当断掉当前活动状态的主网口时,待命的网口将接 替主网口的位置,对外提供服务,并成为主网口。当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。
五、 交换器容错
交换器容错 (SFT) 跨交换器提供冗余。在交换器端口、电缆或适配器发生故障时,连接到一个交换器的适配器会自动故障恢复转到与另一个交换 器连接的待命适配器上。 英特尔 PROSet 将一个适配器选为活动适配器,而其他的适配器为待命适配器。可以为组选择主适配器和次适配器,但不是必需的。
四、 IEEE 802.3ad 动态链接聚合
IEEE 802.3ad 动态链接聚合是一项用于提高交换器之间或服务器和交换器之间吞吐量的 IEEE 标准。达到这一目的的方法是通过动态设置边界或通 道将若干端口聚合一起并显示为使用链接聚合控制协议 (LACP) 的单个链接。这样会提高链接的总带宽,并在交换器端口、电缆或适配器发生故 障时提供容错。 可以为此组选择主适配器和次适配器,但不是必需的。
linux下多网卡绑定
linux下多网卡绑定假定将eth0,eth1,eth2,eth3绑定成bond0,步骤如下:(1) #vi /etc/modprobe.conf, 添加如下2行:alias bond0 bondingoptions bonding miimon=100 mode=4当mode=0时,交换机相应端口不需要做trunk,但是从节点上ping网关(192.*.*.*)有较大的延时。
解决此问题的办法是把mode改成4,同时配置交换机相应端口开启链路聚合并捆绑为trunk。
在modprobe.conf文件中,miimon参数用来监测网卡物理连接,建议至少设为100mode参数用来设置绑定模式0 负载均衡(round robin策略)1 active/backup模式,同一时间只有一块网卡使用。
2 负载均衡(xor算法)3 广播模式4 802.3ad模式,lagp协议,带宽翻倍。
模式不能写错这里很容易出现不稳定的情况,多半是这里模式选择错了,所以在实施的时候需要小心,把模式确定了,然后在动手。
(2)修改/etc/sysconfig/network-scripts/目录下的ifcfg-bond0, ifcfg-eth0, i fcfg-eth1,ifcfg-eth2,ifcfg-eth3. 具体内容如下:[root@io102 network-scripts]# pwd/etc/sysconfig/network-scripts[root@io102 network-scripts]# cat ifcfg-bond0DEVICE=bond0BOOTPROTE=staticONBOOT=yesIPADDR=192.*.*.*NETMASK=255.255.255.0USERTCL=noGATEWAY=192.*.*.*[root@io102 network-scripts]# cat ifcfg-eth0DEVICE=eth0BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes[root@io102 network-scripts]# cat ifcfg-eth1 DEVICE=eth1BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes[root@io102 network-scripts]# cat ifcfg-eth2 DEVICE=eth2BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes[root@io102 network-scripts]# cat ifcfg-eth3 DEVICE=eth3BOOTPROTO=noneONBOOT=yesTYPE=EthernetUSERTCL=noMASTER=bond0SLAVE=yes(3)查看bond0的状态[root@io102 ~]# more /proc/net/bonding/bond0Ethernet Channel Bonding Driver: v2.6.3-rh (June 8, 2005)Bonding Mode: IEEE 802.3ad Dynamic link aggregationMII Status: upMII Polling Interval (ms): 100Up Delay (ms): 0Down Delay (ms): 0802.3ad infoLACP rate: slowActive Aggregator Info:Aggregator ID: 1Number of ports: 4Actor Key: 17Partner Key: 480Partner Mac Address: 00:12:f2:cd:68:00Slave Interface: eth0MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:73:56:26Aggregator ID: 1Slave Interface: eth1MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:73:56:a2Aggregator ID: 1Slave Interface: eth2MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:d5:34:d2Aggregator ID: 1Slave Interface: eth3MII Status: upLink Failure Count: 0Permanent HW addr: 00:1e:0b:d5:34:d0Aggregator ID: 1然后在交换机(这里的交换机是Foundry)端做TRUNK将同一台服务器的多个网卡捆绑成一条逻辑的线路来使用,提高服务器与交换机之间的带宽,并且能够负载均衡多个网卡上的流量,以及多个网卡之间的冗余当其中一个网卡坏了其它的网卡会平分坏网卡上的流量,并不影响服务器与交换机之间的数据转发。
双网卡绑定一个IP的方法
双网卡冗余技术
——双网卡绑定一个IP的方法在装有Realtek两个网卡的Windows XP服务器中可以将两个网卡绑定,设置成一个IP 地址,有效均衡负载和提高容错能力,避免服务器在出现传输瓶颈或因某块网卡故障而停止服务。
将两块网卡绑定在同一个IP地址上,同步一起工作,当其中一块发生故障的时候,另一块网卡立刻接管全部负载,过程是无缝的,服务不会中断。
下面介绍软件设置方法
1.打开EXE_Teaming_Green(Normal)文件夹,setup.exe默认安装
2.打开WINXP 文件夹→32文件夹→EXE文件夹→8169Diag 出现网卡诊断管理界面按照下图操作即可
在网络连接发现多出一个本地连接这个网卡为绑定后的网卡组,这个网卡的使用和使用单一网卡完全一样,相当于一个单一网卡的“虚拟网卡”。
如下图:
可以改定此虚拟网卡的IP地址、子网掩码、网关等等。
双网卡绑定
大家好,我前几天在去联想玩的时候,看到他们工程师一台机装好几个网卡,速度还不错,我看一下,回到公司也到网上找了一些资料,双(多)网卡用一个IP的技术,对于各种内网服务器,和电脑、、、、很有用处,我把我在网上找到的资料整理了一下,大家看一看,也许对大家有好处!所谓双网卡,就是通过软件将双网卡绑定为一个IP地址,这个技术对于许多朋友来说并不陌生,许多高档服务器网卡(例如intel8255x 系列、3COM服务器网卡等)都具有多网卡绑定功能,可以通过软硬件设臵将两块或者多块网卡绑定在同一个IP地址上,使用起来就好象在使用一块网卡,多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断,直到维修人员到来。
先下载一个软件ftp://218.20.254.252下载完软件,先不忙安装,咱们还是先准备好硬件。
第一部分:硬件安装虽然,理论上讲绑定越多网卡在一起,最终效果提升就越明显,但是考虑到复杂程度,这里就以绑定双网卡为例进行说明,如果读者觉得好玩,兴致很高的话,按照下面方法愿意绑定多少就绑定多少个网卡,其实一般同一台服务器,绑定2-3块网卡也就够了,太多了,据说因为链路聚合的先天缺点,会过多占用服务器资源,反过来会影响服务器速度(关于这个我没实验,不过我觉得凡事都离不开物极必反的道理,适度最好)。
网卡绑定(多网卡绑定成一个虚拟网卡负载均衡)
网卡绑定,就将两个或者更多的物理网卡绑定成一个虚拟网卡,以提供负载均衡或者冗余,能够起到增加带宽的作用;当网卡绑定之后,如果有一个网卡坏掉,网络会继续保持,不会中断,从而不会影响业务。
Windows下网卡绑定Windows 下进行网卡绑定,需要根据网卡的类型下载网卡驱动,通过网卡驱动进行网卡绑定。
设备:HS22,BCE刀箱系统:windows 2008 Enterprise R2 x64网卡类型:首先下载网卡驱动,在驱动的MgmtApps文件夹下,寻找符合系统要求的setup.exe文件,双击击安装。
在接受许可条例之后,进入自定义安装界面,如下:我们这里只安装BASP,直接下一步。
安装结束后,会提醒你从控制面板中找到,这里,我们只要打开开始菜单就可以看见新安装的BACS软件了。
(注意,如果是intel的网卡,系统会默认图标显示在控制面板中。
)软件界面如下:界面左侧的Device Management,显示的是主机当前的网卡,Team Management是用来对网卡绑定进行操作和管理的。
右边是动态展示栏,可以展示每块网卡的信息(Information),可以通过自动ping网卡IP,诊断网卡当前状态(Diagnostics),还可以统计网卡活动状态(Statistics)。
网卡绑定,在实际操作中,是采用虚拟网卡组的概念,将现有网卡,绑定成一个虚拟网卡组。
因此在BACS中,我们打开Team Management来进行网卡绑定。
打开Team Management,左侧看到的是可以进行绑定的网卡状态。
我们打开上层菜单栏中的“Teams”,选择“Create a team”,就进入了网卡绑定的引导界面。
选择“Next”。
首先输入一个网卡绑定组的名字:选择“Next”进入类型界面。
Broadcom网卡绑定有三种类型,--Smart Load Balancing(TM)and Failover(SLB):智能负载均衡和故障转移。
服务器网卡绑定操作
服务器网卡绑定操作服务器网卡绑定操作是一种常见的网络优化技术,通过将多个网卡绑定成一个虚拟接口,提供更高的网络吞吐量和可靠性。
本文将介绍服务器网卡绑定操作的原理和常用的绑定方式,以及相关的配置和管理技巧。
一、绑定原理服务器网卡绑定操作的原理基于网络负载均衡和冗余备份的需求。
通过将多个物理网卡绑定成一个逻辑网卡,实现数据在多个网卡之间的均衡传输,提升服务器网络性能。
同时,当其中一个网卡故障时,其他网卡可以自动接管数据传输,保证网络的可靠性。
二、绑定方式1. 适配器绑定模式适配器绑定模式是最常用的绑定方式,将多个网卡绑定为一个逻辑网卡,实现负载均衡和冗余备份。
该模式分为两种类型:- 轮询模式:轮询模式会将传入的请求依次分发到每个网卡上,实现负载均衡。
但是由于网卡带宽和性能的不同,可能会导致某个网卡负载较高。
- 适配器故障转移模式:适配器故障转移模式在主用网卡发生故障时,会自动将数据流量切换到备用网卡,保证网络的可靠性。
2. 链路聚合模式链路聚合模式将多个网卡绑定为一个逻辑网卡,并通过链路聚合控制协议(LACP)实现对网络流量的负载均衡和冗余备份。
该模式依赖于网络交换机的支持,通过交换机上的聚合组实现网卡的绑定和控制。
三、配置和管理服务器网卡绑定操作的配置和管理通常需要在服务器的操作系统中进行,以下是一些常用的配置和管理技巧:1. 操作系统支持首先要确保服务器的操作系统支持网卡绑定操作。
大部分现代操作系统,如Linux、Windows Server等,都提供了丰富的网络绑定功能和管理工具。
2. 硬件检查在进行网卡绑定操作之前,要确保服务器的硬件和网络环境满足要求。
检查网卡的型号和规格,以及交换机的配置和支持情况。
3. 配置文件修改根据服务器操作系统的不同,可以通过修改相应的配置文件来实现网卡绑定。
比如在Linux系统中,可以编辑网络配置文件(如/etc/network/interfaces)来指定绑定方式和参数。
提高服务器高可用性的双网卡绑定聚合技术的应用
提高服务器可用性的多网卡绑定聚合技术的应用王和平摘要:通过NICExpress软件对服务器多网卡进行捆绑聚合,以实现增加带宽、负载均衡、故障自动转移等,从而达到服务器的高可靠性和高可用性。
关键词:网卡聚合;服务器;高可用性一、引言现今几乎各行各业内部都建立了自己的服务器,由于服务器的特殊地位,它的可靠性、可用性及其I/O速度就显得非常的重要,保持服务器的高可用性和安全性是企业IT环境的重要指标,其中最重要的一点是服务器网络连接的高可用性。
本文通过NICExpress软件,通过实际部署服务器多网卡,以提高服务器网络连接的可用性,配合实现构建高可靠性的网络环境。
二、网卡聚合绑定的特点网卡绑定聚合就是通过软件将多块网卡绑定为一个IP地址,使用起来就好象在使用一块网卡。
网卡是计算机和外部联系的主要通道。
个人计算机默认安装一块网卡,服务器基本配置应该安装两块网卡。
如果服务器上仅安装一块网卡,建议管理员至少增加一块网卡。
一块为主网卡,其他为备用网卡,然后再通过网线将对应的网卡连接到同一交换机上。
在服务器和交换机之间建立主连接和备用连接。
通过NICExpress虚拟网卡软件将多块网卡绑定为一块网卡,或称之为虚拟网卡组,然后为虚拟网卡组设置一个唯一的IP地址。
安装多块网卡后,通过多网卡并发方式传输数据,有利于提高网络传输效率,提高系统性能。
一旦网卡组中的任何一个物理连接断开,比如网卡出现故障或链路断开,系统软件将自动监测连接状态,出现故障的网卡将自动切换到其他网卡的物理连接上。
在服务器中部署多块网卡聚合绑定后,将具备如下特点:1.增加带宽。
假如网卡的带宽100Mbps,那么理论上两块网卡聚合绑定后的带宽就是200Mbps,三块网卡聚合绑定后的带宽就是300Mbps。
当然实际上的效果是不会这样简单相加的,不过经实际测试使用多个网卡绑定对于增加带宽,保持带宽的稳定性肯定是有益的。
经过实际测量,三块带宽为100Mbps的网卡绑定后传输总带宽可以达到260Mbps。
网卡捆绑
网卡捆绑Windows:第一步:硬件连接与安装(即安装硬件网卡)首先进入BIOS设置将主板上集成的网卡打开,同时将独立网卡插入空闲的PCI插槽,用直通双绞线将两块网卡和宽带路由器的LAN口相连。
重新启动Windows XP系统,自动为两块网卡安装好驱动程序。
打开“网络连接”,会看到“本地连接”和“本地连接2”两个连接,而且这两个连接已经启用,硬件的连接与安装就算完成了。
第二步:绑定双网卡下载并安装绑定双网卡的软件“NIC Express”。
在安装软件的过程中保持默认值,一路点击“Next”后,最后点击“Demo”就可以完成安装。
在将两块网卡绑定而虚拟出新设备的时候,会提示“未通过微软认证”,连续点击几次“仍然继续”按钮就可以继续安装。
弹出“绑定”窗口后(见图),在中间文本框中输入绑定后的连接名称(如“网卡绑定”),点击“Add”按钮将两块网卡加入到下面的“Assigned Adpaters”即可。
接着进入NIC Express的配置界面,保持默认值就可完成安装。
NIC Express配置界面翻译The NIC Enterprise Edition configuration on utility will be launched so that you can configure the advanced features of NIC Express Enterprise Edition网卡上的企业版配置实用程序将启动,这样您可以配置网卡的高级特性表达企业版Failover Settings 故障转移设置status packets 状态数据包time period 时间周期frequency 频率retries 重试validation 验证utilize 用multiple 多个independent 独立的utilize multiple independent network in number of retries to default利用多个独立网络重试次数违约ARP Frequency to default getaway arp违约逃跑的频率load balancing disable 负载平衡禁用Non-Broadcast Status Packe Client ARP Wait timeNon-Broadcast 地位Packe端ARP等待时间diagnostics 诊断第三步:配置连接进入“网络连接”窗口,会看到多出了一个“网卡绑定NIC Express Virtual Adapter”的连接,并且已启用。
IBM服务器双网卡绑定
环境:Xseries366Windows2003 sp1Broadcom v8.1.6 Drivers Software CD Release简单的讲,teaming可以使服务器里的多个网卡能同时工作,并分担网络中的数据流量。
配置步骤:1.安装Broadcom配套光盘中的BACS应用程序;2. 运行BACS程序,可以看到打好驱动的两块网卡3.右键点击其中一块网卡,选择“创建组”选项4.标识新组名称,选择teaming方式(本文重点介绍“智能负载平衡和故障转移”teaming 绑定方式)5.将可用网卡添加到新组中,点击应用,几分钟后绑定成功!待完成后,网络连接中出现一块虚拟网卡,可对其进行IP配置。
至此,teaming配置完成。
为了使服务器里的多个网卡能同时工作,并分担网络中的数据流量,可以对网卡做teaming的配置,不同的网卡芯片提供的teaming类型可能略有差别,下面就对Broadcom 厂商的网卡所实现的负载均衡的几种形式介绍如下:1.Smart Load Balancing™ and Failover这种模式是基于IP地址来做的负载均衡,它通过team中的多个网卡来来平衡通信中的数据流量。
在这种方式下,team中的每个网卡有自己的MAC地址,并且能够实现自动侦测;如果一个team中所有的网卡都出现了故障,那这种方式能够实现动态故障转移,使用其它team 中的网卡或者已有的一个备用网卡。
使用这种teaming方式时并不需要在交换机上作配置。
而且LiveLink 的功能只有在这种模式下可以使用。
2. Link Aggregation (802.3ad)该模式工作时遵循802.3ad(LACP)规范,能够实现动态配置虚拟网络中team里的网卡。
所有在team中的网卡都被配置成使用同一个MAC地址(这个地址是team中第一个网卡的MAC地址)接受数据报。
网络通信中输出数据时的负载均衡是有BASP的软件来决定的;而输入数据时的负载均衡是由网卡所连接的交换机来完成的。
Linux下多网卡绑定bond及模式介绍
Linux下多⽹卡绑定bond及模式介绍【介绍】⽹卡bond⼀般主要⽤于⽹络吞吐量很⼤,以及对于⽹络稳定性要求较⾼的场景。
主要是通过将多个物理⽹卡绑定到⼀个逻辑⽹卡上,实现了本地⽹卡的冗余,带宽扩容以及负载均衡。
Linux下⼀共有七种⽹卡bond⽅式,实现以上某个或某⼏个具体功能。
最常见的三种模式是bond0,bond1,bond6.【bond0】平衡轮循环策略,有⾃动备援,不过需要"Switch"⽀援及设定。
balance-rr(Round-robin policy)⽅式:传输数据包的顺序是依次传输(即:第⼀个包⾛eth0,第⼆个包就⾛eth1……,⼀直到所有的数据包传输完成)。
优点:提供负载均衡和容错能⼒。
缺点:同⼀个链接或者会话的数据包从不同的接⼝发出的话,中间会经过不同的链路,在客户端可能会出现数据包⽆法有序到达的情况,⽽⽆序到达的数据包将会被要求重新发送,⽹络吞吐量反⽽会下降。
【bond1】主-备份策略active-backup(Active -backup policy)⽅式:只有⼀个设备处于活动状态,⼀个宕掉之后另⼀个马上切换为主设备。
mac地址为外部可见,从外⾯看,bond的mac地址是唯⼀的,switch不会发⽣混乱。
优点:提⾼了⽹络连接的可靠性。
缺点:此模式只提供容错能⼒,资源利⽤性较低,只有⼀个接⼝处于active状态,在有N个⽹络接⼝bond 的状态下,利⽤率只有1/N。
【bond2】平衡策略balance-xor(XOR policy)⽅式:基于特性的Hash算法传输数据包。
缺省的策略为:(源MAC地址 XOR ⽬标MAC地址) % slave数量。
# XRO为异或运算,值不同时结果为1,相同为0可以通过xmit_hash_policy选项设置传输策略。
特点:提供负载均衡和容错能⼒。
【bond3】⼴播策略broadcast⽅式:在每个slave接⼝上传输每⼀个数据包。
服务器网卡多网卡绑定及vlan划分配置方法
输入一个名字 选择第二项 802.3ad
添加要绑定的网卡 配置 vlan,一般没有的,跳过
完成 需要几分钟的配置
网卡需要几分钟和交换机协商,完成后,可以看到两块网卡开始正常工作
intel 网卡 选择网卡属性
选择分组—将此适配器与其他适配器组合—新组
选择网卡
创建成功,将 Ip 绑定到新建的组上。
附 2: Linux 系统中绑定失败的处理一例 insmod /lib/modules/2.6.18-164.el5/kernel/net/ipv6/ipv6.ko disable=1 insmod /lib/modules/2.6.18-164.el5/kernel/drivers/net/bonding/bonding.ko
snda-intel-lab-2960s-250#sh running-config int g0/4 Building configuration...
Current configuration : 137 bytes ! interface GigabitEthernet0/4
switchport mode access spanning-tree portfast channel-protocol lacp channel-group 1 mode passive end
[root@lab]# cat ifcfg-eth1.100 DEVICE=eth1.100 ONBOOT=yes BOOTPROTO=none TYPE=Ethernet VLAN=yes IPADDR=*.*.*.* NETMASK=255.255.255.0
附 1: Linux 系统中参数及其意义 mode=<value> Allows you to specify the bonding policy. The <value> can be one of:
交换机和Linux服务器网卡绑定模式(bond)对接经典配置
∙大数据∙案交换机和Linux服务器网卡绑定模式(bond)对接经典配置关键词:∙交换机∙bond∙∙0推荐,274浏览∙∙2收藏,我的收藏功能需求交换机与Linux服务器多网卡bond模式对接组网信息及描述无配置步骤交换机多端口和服务器对接时,需要确定是否需要配置聚合或者不配置聚合,并且配置聚合的时候还需要确认是静态聚合还是动态聚合,当然这和当前服务器网卡的bond模式有关。
下面我们了解下Linux服务器的7种bond模式,说明如下:第一种模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略)特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降。
这种模式需要接入交换机配置静态链路聚合配置。
V3平台交换机侧的静态典型配置[H3C] link-aggregation group 1 mode manual[H3C] interface ethernet2/1/1[H3C-Ethernet2/1/1] port link-aggregation group 1[H3C-Ethernet2/1/1] interface ethernet2/1/2[H3C-Ethernet2/1/2] port link-aggregation group 1[H3C-Ethernet2/1/2] interface ethernet2/1/3[H3C-Ethernet2/1/3] port link-aggregation group 1V5/V7交换机侧的静态典型配置[DeviceA] interface Bridge-Aggregation 1 //默认静态[DeviceA-Bridge-Aggregation1] quit[DeviceA] interface GigabitEthernet 4/0/1[DeviceA-GigabitEthernet4/0/1] port link-aggregation group 1[DeviceA] interface GigabitEthernet 4/0/2[DeviceA-GigabitEthernet4/0/2] port link-aggregation group 1第二种模式:mod=1,即:(active-backup) Active-backup policy(主-备份策略)特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。
双网卡绑定成为虚拟网卡
Redhat Linux的网络配置,基本上是通过修改几个配置文件来实现的,虽然也可以用ifconfig 来设置IP,用route来配置默认网关,用hostname来配置主机名,但是重启后会丢失。
1.相关的配置文件:/ect/hosts 配置主机名和IP地址的对应/etc/sysconfig/network 配置主机名和网关/etc/sysconfig/network-scripts/ifcfg-eth0 eth0配置文件,eth1则文件名为ifcfg-eth1,以此类推2.网卡配置假设我们要配置主机名为test,eth0的IP地址192.168.168.1/24,网关地址192.168.168.250 则/etc/sysconfig/network文件内容如下:NETWORKING=yesHOSTNAME=testGATEWAY=192.168.168.250eth0对应的配置文件/etc/sysconfig/network-scripts/ifcfg-eth0内容如下:DEVICE=eth0设备名称BOOTPROTO=static地址配置方式:static、dhcp、noneIPADDR=192.168.168.1NETMASK=255.255.255.0TYPE=Ethernet网络类型ONBOOT=yes系统开机是否自启动HWADDR=MAC地址2.多个网卡绑定成一块虚拟网卡为了提供网络的高可用性,我们可能需要将多块网卡绑定成一块虚拟网卡对外提供服务,这样即使其中的一块物理网卡出现故障,也不会导致连接中断。
比如我们可以将eth0和eth1绑定成虚拟网卡bond0。
网卡绑定步骤如下:2.1首先用ifconfig命令查看系统网卡信息,进行网卡绑定规划,比如我们选定eth0和eth12.2网卡绑定前要关闭系统的NetworkManager服务service NetworkManager stop停止服务chkconfig NetworkManager off开机自启动关掉chkconfig|grep NetworkManager检查服务是否彻底关掉2.3在/etc/sysconfig/network-scripts/下创建虚拟网卡bond0的配置文件ifcfg-bond0,内容如下:DEVICE=bond1ONBOOT=yesBOOTPROTO=none地址配置方式noneIPADDR=22.1.82.63NETMASK=255.255.255.0USERCTRL=noGATEWAY=22.1.82.253BONDING_OPTS="mode=0 miimon=50 fail_over_mac=0"虚拟网卡参数,mode为网卡策略,目前有七种(详细介绍在下面)miimon=100表示每100ms检查一次链路连接状态,如果不通则会切换物理网卡。
服务器双网卡绑定
双网卡绑定实践Windows平台下常用的双网卡绑定软件有Intel PROSet、NICExpress。
本文主要介绍用Intel PROset实现双网卡绑定的方法。
英特尔PROSet 是一个高级的配置实用程序,可用来测试英特尔网络适配器并配置标准和高级功能。
通常Intel网卡的驱动包中就包含这个程序,在安装驱动的时候PROSet默认是被安装的。
测试环境:测试机:R525 G3,Intel双千兆网卡OS:windows 2003 server 企业版32位终端:联想笔记本(用于测试服务器双网卡绑定效果)步骤:1、打开设备管理器,双击任意一块Intel 82576;注意R525 G3默认有3块网卡,82574L是管理网口2、在弹出的配置对话框中,选择分组页面。
此时由于系统中的网卡没有进行绑定,因此此时组下拉列表框是灰色不可选的,单击“新组”;3、在弹出的“新组向导”对话框中,填写组的名称,下一步;4、钩选需要绑定的两个网卡,下一步;5、这里列出了可选择的网卡绑定的模式,常用的是容错和负载平衡。
这里我们选择容错,单击下一步;6、完成向导;7、此时我们可以看到刚才的分组页面中组的下拉列表中已经有team1;8、同时弹出的还有team1的属性对话框,单击设置页面,可以看到其中一块网卡状态为“活动”,另一块网卡装状态为“待命”。
在此界面中还可进行删除组和修改组的操作,单击“修改组”;9、在弹出的对话框中,可以设置双网卡的主从关系,如不进行设定,此关系是不固定的。
即:当断掉当前活动状态的主网口时,待命的网口将接替主网口的位置,对外提供服务,并成为主网口。
当之前断开的网口恢复后,主从关系不会改变,该网口变为待命状态。
10、固定主从关系,设置当前活动的网口为主适配器,待命网口为次适配器;11、此时在设备管理器中可以看到网络适配器下拉列表中出现了“组:team1”,而两块Intel 82576网卡作为team1的成员,其描述也有了变化。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
服务器多网卡捆绑
1、Linux系统
1-1、 RHEL5下双网卡绑定。
1-1-1、新增网卡
这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。
1-1-2、修改物理网卡配置
1-1-3、设置虚拟网卡模块
说明:miimon是用来进行链路监测的。
比如:miimon=500,那么系统每500ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0-6 七种模式,常用的为0,1两种。
▪mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
▪mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.
bonding只能提供链路监测,即从主机到交换机的链路是否接通。
如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。
例子中使用mode=0的配置来做负载均衡提高系统性能,增大并发带宽。
1-1-4、加载模块(重启系统后就不用手动再加载了)
1-1-5确认模块是否加载成功:
1-1-6、重启网络:
用外部同一网段的一台机器做ping试验,双网卡机器上手工拔掉其中任意一条网络线(或者使用ifup eth0|ifdown eth1),ping机器的终端应该没有中断信息,或者有一个”timeout”后很快恢复,则证明试验成功。
1-2、 RHEL6下双网卡绑定
1-2-1、新增网卡
这个新增的网卡是我们自己设计的虚拟的网卡,在物理上是不存在的。
1-2-2、修改物理网卡配置
1-2-3 重启网络服务
1-3、7种bond模式说明
第一种模式:
mod=0 ,即:(balance-rr) Round-robin policy(平衡轮循环策略)
特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降。
第二种模式:
mod=1,即:(active-backup) Active-backup policy(主-备份策略)
特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。
mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。
此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有N 个网络接口的情况下,资源利用率为1/N。
第三种模式:
mod=2,即:(balance-xor) XOR policy(平衡策略)
特点:基于指定的传输HASH策略传输数据包。
缺省的策略是:(源MAC地址XOR 目标MAC地址) % slave数量。
其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力
第四种模式:
mod=3,即:broadcast(广播策略)
特点:在每个slave接口上传输每个数据包,此模式提供了容错能力
第五种模式:
mod=4,即:(802.3ad) IEEE 802.3ad Dynamic link aggregation(IEEE 802.3ad 动态链接聚合)
特点:创建一个聚合组,它们共享同样的速率和双工设定。
根据802.3ad规范将多个slave 工作在同一个激活的聚合体下。
外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。
需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。
不同的实现可能会有不同的适应性。
必要条件:
条件1:ethtool支持获取每个slave的速率和双工设定
条件2:switch(交换机)支持IEEE 802.3ad Dynamic link aggregation
条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式
第六种模式:
mod=5,即:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡)特点:不需要任何特别的switch(交换机)支持的通道bonding。
在每个slave上根据当前的负载(根据速度计算)分配外出流量。
如果正在接受数据的slave出故障了,另一个slave接
管失败的slave的MAC地址。
该模式的必要条件:ethtool支持获取每个slave的速率
第七种模式:
mod=6,即:(balance-alb) Adaptive load balancing(适配器适应性负载均衡)
特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。
接收负载均衡是通过ARP协商实现的。
bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。
来自服务器端的接收流量也会被均衡。
当本机发送ARP请求时,bonding驱动把对端的IP信息从ARP包中复制并保存下来。
当ARP应答从对端到达时,bonding驱动把它的硬件地址提取出来,并发起一个ARP应答给bond中的某个slave。
使用ARP协商进行负载均衡的一个问题是:每次广播ARP请求时都会使用bond的硬件地址,因此对端学习到这个硬件地址后,接收流量将会全部流向当前的slave。
这个问题可以通过给所有的对端发送更新(ARP应答)来解决,应答中包含他们独一无二的硬件地址,从而导致流量重新分布。
当新的slave加入到bond中时,或者某个未激活的slave重新激活时,接收流量也要重新分布。
接收的负载被顺序地分布(round robin)在bond中最高速的slave上
当某个链路被重新接上,或者一个新的slave加入到bond中,接收流量在所有当前激活的slave 中全部重新分配,通过使用指定的MAC地址给每个client发起ARP应答。
下面介绍的updelay 参数必须被设置为某个大于等于switch(交换机)转发延时的值,从而保证发往对端的ARP应答不会被switch(交换机)阻截。
必要条件:
条件1:ethtool支持获取每个slave的速率;
条件2:底层驱动支持设置某个设备的硬件地址,从而使得总是有个slave(curr_active_slave)使用bond的硬件地址,同时保证每个bond 中的slave都有一个唯一的硬件地址。
如果curr_active_slave出故障,它的硬件地址将会被新选出来的curr_active_slave接管其实mod=6与mod=0的区别:mod=6,先把eth0流量占满,再占eth1,….ethX;而mod=0的话,会发现2个口的流量都很稳定,基本一样的带宽。
而mod=6,会发现第一个口流量很高,第2个口只占了小部分流量。