双网卡绑定NCU软件的详细功能以及使用

合集下载

Redhat 6.1以上版本配置双网卡绑定

Redhat 6.1以上版本配置双网卡绑定

如何在Redhat 6.1以上版本配置双网卡绑定实现网卡流量负载均衡今天把redhat的版本从5.x升级到6.1,突然发现6.1版本下双网卡绑定的文件少了,6.1版本没有5.x的版本中/etc/modprobe.conf 配置文件,研究了一下如何配置6.1版本的双网卡绑定。

现在把研究的成果分享出来。

研究了一下6.1的版本ifup-eth 以及network-functions两个文件以后,发现并不需要5.x的版本中/etc/modprobe.conf 配置文件。

只要在接口上添加bond模式参数就行。

第一步:还是创建bond接口,在接口配置文件的路径下/etc/sysconfig/network-scripts/[root@liujing ~]#vi /etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=”bond0″BOOTPROTO=”static”IPADDR=”1.1.1.2″NETMASK=”255.255.255.0″NM_CONTROLLED=”no” —–这个参数是networdmanager相关的,可以把个关了。

MASTER=”yes”ONBOOT=yesTYPE=EthernetUSERCTL=noBONDING_OPTS=”mode=0 miimon=100″ ——-其他配置同5.4版本的配置一样,不同的是在这里添加绑定模式,这里配置的是模式0。

第二步:修改要加入bond的两种物理口的接口配置文件如下:[root@liujing ~]# cat /etc/sysconfig/network-scripts/ifcfg-p4p1DEVICE=”p4p1″NM_CONTROLLED=”no” —-这个参数是networdmanager相关的,可以把个关了。

BOOTPROTO=”none”MASTER=”bond0″ —-配置master为bond0SLAVE=”yes” —-设置为slaveONBOOT=”yes”[root@liujing ~]# cat /etc/sysconfig/network-scripts/ifcfg-p4p2DEVICE=”p4p2″NM_CONTROLLED=”no” —-这个参数是networdmanager相关的,可以把个关了。

redhat ftp telnet 双网卡绑定

redhat ftp telnet 双网卡绑定

已经安装成功了……
d. 修改 telnet 配置文件 vi /etc/xinetd.d/telnet
将 disable = yes 这一行注释掉或将 yes 改成 no 就 ok 了。 注:配置文件 telnet 是在安装了 telnet-server 包后才有的。 e. 重新启动 xinetd 守护进程 service xinetd restart
f. 测试 telnet 是否配置完成 telnet localhost
已经 ok 了…… g. 远程登陆此服务器
服务器防火墙的原因出现无法登陆的情况 解决办法: 1、 修改防火墙配置文件 vi /etc/sysconfig/iptables 最后一行加入 -A RH-Firewall-1-INPUT -m state --state NEW -m tcp -p tcp --dport 23 -j ACCEPT
最主要的是防火墙里的 SELinux 要允许,不然是不能读取写入的 还有一种就是 pasv 被动传输模式,可以如下设置 pasv_enable=yes (Default: YES ) 设置是否允许 pasv 模式 pasv_promiscuous=no (Default: NO ) 是否屏蔽对 pasv 进行安全检查, (当有安全隧道时
Redhat Linux 5 双网卡绑定
首先要看 linux 是否支持 bonding.(2.4 版本大部分发行版都支持) # modinfo bonding 如果没有,说明内核不支持 bonding,需要重新编译内核 编译内核的步骤这里就不多写了,在 make menuconfig 里面 找到 Bonding driver support 这样的对话框,选中它. 如果是模块编译,还需要挂载模块.挂载 bonding 模块的方法; [root@localhost#] modprobe bonding 如果/sbin/ifenslave 没有,我们还需要把它也单独编译出来 [root@lin:/home/beinan#] cd /usr/src/linux-2.6.20/Documentation/networking [root@lin:/home/networking#] gcc -Wall -Wstrict-prototypes -O -I/usr/src/linux-2.6.20/include ifenslave.c -o ifenslave [root@lin:/home/networking#] cp ifenslave /sbin/ifenslave --------------------------------------------------------------------------------------------------------------------新建/etc/sysconfig/network-scripts/ifcfg-bond0 文件 DEVICE=bond0 ONBOOT=yes BOOTPROTO=none IPADDR=192.168.128.225 NETMASK=255.255.255.224 GATEWAY=192.168.128.233 USERCTL=no

linux双网卡绑定配置,验证及测试

linux双网卡绑定配置,验证及测试
linux双网卡绑定 双网卡绑定
shwang 西安 linux+c E-mail:fenghuaster@ QQ:271904106
内容概要
什么是双网卡绑定 检查kernel是否支持绑定 检查 是否支持绑定 绑定配置 绑定后的验证 测试带宽
什么是双网卡绑定
双网卡绑定实现就是使用两块网卡虚拟成为一块网卡, 双网卡绑定实现就是使用两块网卡虚拟成为一块网卡, 这个聚合起来的设备看起来是一个单独的以太网接口设备。 这个聚合起来的设备看起来是一个单独的以太网接口设备。 通俗讲就是两块网卡具有相同的IP IP地址而并行链接聚合成 通俗讲就是两块网卡具有相同的IP地址而并行链接聚合成 一个逻辑链路工作。 一个逻辑链路工作。 Linux下双网卡绑定技术实现负载均衡和失效保护。 Linux下双网卡绑定技术实现负载均衡和失效保护。 下双网卡绑定技术实现负载均衡和失效保护
检查kernel是否支持绑定 是否支持绑定 检查
cat /boot/config-2.6.18-*** |grep –i bongding 如果有: 如果有: CONFIG_BONDING=m 表示支持。 表示支持。 否则需要编译内核使她支持bonding后,才可以做双网卡绑定 否则需要编译内核使她支持 后
配置绑定
1.新建/etc/sysconfig/network-scripts/ifcfg-bond0文件。 1.新建/etc/sysconfig/network-scripts/ifcfg-bond0文件。 新建/etc/sysconfig/network 文件 DEVICE=bond0 ONBOOT=yes BOOTPROTO=static PADDR=192.168.9.202 NETMASK=255.255.255.0 GATEWAY=192.168.9.1 USERCTL=no

Linux下双网卡绑定(bonding技术)

Linux下双网卡绑定(bonding技术)

Linux下双⽹卡绑定(bonding技术)2013-08-20 15:39:31现在很多服务器都⾃带双千兆⽹⼝,利⽤⽹卡绑定既能增加⽹络带宽,同时⼜能做相应的冗余,⽬前应⽤于很多的场景。

linux操作系统下⾃带的⽹卡绑定模式,Linux bonding驱动提供了⼀个把多个⽹络接⼝设备捆绑为单个⽹络接⼝设置来使⽤,⽤于⽹络负载均衡及⽹络冗余。

当然现在⽹卡产商也会出⼀些针对windows操作系统⽹卡管理软件来做⽹卡绑定(windows操作系统没有⽹卡绑定功能需要第三⽅⽀持)。

我们公司是做分布式⽂件系统的,很多项⽬都⽤到⽹卡绑定来提⾼性能。

在⽹络找了很多资料,也做了⼤量的测试,下⾯就⽹卡绑定谈⼀下⾃⼰的看法。

⼀、 Bonding的应⽤1、⽹络负载均衡对于bonding的⽹络负载均衡是我们在⽂件服务器中常⽤到的,⽐如把三块⽹卡,当做⼀块来⽤,解决⼀个IP地址,流量过⼤,服务器⽹络压⼒过⼤的问题。

如果在内⽹中,⽂件服务器为了管理和应⽤上的⽅便,⼤多是⽤同⼀个IP地址。

对于⼀个百M的本地⽹络来说,⽂件服务器在多个⽤户同时使⽤的情况下,⽹络压⼒是极⼤的,为了解决同⼀个IP地址,突破流量的限制,毕竟⽹线和⽹卡对数据的吞吐量是有限制的。

如果在有限的资源的情况下,实现⽹络负载均衡,最好的办法就是bonding 。

2、⽹络冗余对于服务器来说,⽹络设备的稳定也是⽐较重要的,特别是⽹卡。

⼤多通过硬件设备的冗余来提供服务器的可靠性和安全性,⽐如电源。

bonding 也能为⽹卡提供冗余的⽀持。

把⽹个⽹卡绑定到⼀个IP地址,当⼀块⽹卡发⽣物理性损坏的情况下,另⼀块⽹卡也能提供正常的服务。

⼆、 Bonding的原理什么是bonding需要从⽹卡的混杂(promisc)模式说起。

我们知道,在正常情况下,⽹卡只接收⽬的硬件地址(MAC Address)是⾃⾝Mac的以太⽹帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。

但是⽹卡也⽀持另外⼀种被称为混杂promisc的模式,可以接收⽹络上所有的帧,⽐如说tcpdump,就是运⾏在这个模式下。

双网卡绑定实现负载,冗余及内外网设置

双网卡绑定实现负载,冗余及内外网设置

Linux配置双网卡绑定,以实现冗余及负载均衡1、首先需要彻底关闭NetworlManger 服务,如果有的话,否则会和bond网卡冲突[root@rhel ~]#service NetworlManger stop[root@rhel ~]#chkconfig NetworlManger off2、新建ifcfg-bond0配置文件[root@rhel ~]#vi /etc/sysconfig/network-scripts/ifcg-bond0DEVICE=bond0BOOTPROTO=noneIPADDR=192.168.1.11NETMASK=255.255.255.0ONBOOT=yesUSERCTL=no #用户控制禁止3、修改ifcfg-eth0配置文件,将IP/GW/NW/ID/HW等注释,保留以下信息[root@rhel ~]#vi /etc/sysconfig/network-scripts/ifcg-eth0DEVICE=eth0BOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0 #将网卡指向bond0SLAVE=yes #启用双网卡4、修改ifcfg-eth1配置文件[root@rhel ~]#vi /etc/sysconfig/network-scripts/ifcg-eth0DEVICE=eth1BOOTPROTO=noneONBOOT=yesUSERCTL=noMASTER=bond0 #将网卡指向bond0SLAVE=yes #启用双网卡5、修改rc.local文件,添加以下信息[root@rhel ~]#vi /etc/rc.localifenslave bond0 eth0 eth1 #rhel6以上可以不设,但需要重启。

6、修改内核文件,系统不同有差异需要谨慎查看,查看备注。

Rhel6.3以下添加[root@rhel ~]#vi /etc/modprobe.d/dist.confAlias bond0 bondingOptions bond0 mode=1 miimon=50 #可在ifcfg-bond0中添加用BONDING_OPT=””连接。

centos 双网卡绑定

centos 双网卡绑定

双网卡绑定目的:服务器上网卡实现热备(mode=1),当网卡,网线,交换机中任意down一个,业务都能正常运行具体描述:1.eth0及eth1两块物理网卡绑定成一块虚拟网卡bond0,并产生一个共用的虚拟ip地址对外服务,正常时,eth0和eth1只有一个工作2.当其中一个网卡,或者对应的网线,交换机down掉时,另一个网卡能实现无缝热备,确保业务的正常运行实现方法:/etc/modprobe.conf里添加alias bond0 bondingoptions bond0 miimon=100 mode=1(0负载均衡模式,1热备模式)编辑/etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond0BOOTPROTO=staticONBOOT=yesBROADCAST=10.99.237.63IPADDR=10.99.237.35NETMASK=255.255.255.224GATEWAY= 10.99.237.62编辑/etc/sysconfig/network-scripts/ifcfg-eth0DEVICE=eth0BOOTPROTO=staticONBOOT=yesMASTER=bond0SLAVE=yes/etc/sysconfig/network-scripts/ifcfg-eth1DEVICE=eth1BOOTPROTO=staticONBOOT=yesMASTER=bond0SLAVE=yes编辑/etc/rc.localifenslave bond0 eth0 eth1实施后的测试:重启网卡进行测试,cat /proc/net/bonding/bond0 然后重启机器进行测试,任意拔掉其中一根网线,看是否能ping通最后步骤:机器接线复原。

RedHat6.3-双网卡绑定

RedHat6.3-双网卡绑定

RedHat 6.3进行双网卡绑定一、前期准备:1.1、查看系统版本:# cat /etc/issue1.2、检查系统配置上是否支持bonding:# cat /boot/config-xxxxxxx |grep –i bonding(回车)CONFIG_BONDING=m(返回CONFIG_BONDING=m表示支持,否则需要编译内核使他支持bonding,需要编译时请查阅相关文档,此处不做详细说明)1.3、切换到网卡配置目录,进行备份,防止出错恢复:# cd /etc/sysconfig/network-scripts/ //切换目录# cp ifcfg-eth0 /home/bak/ifcfg-eth0.bak //备份eth0到指定目录# cp ifcfg-eth1 /home/bak/ifcfg-eth1.bak //备份eth1到指定目录二、配置步骤:2.1、进行bond0网卡的配置:切换到目录/etc/sysconfig/network-scripts,创建一个ifcfg-bondX# vi /etc/sysconfig/network-scripts/ifcfg-bond0//新建一个bond0配置文件,在文件中添加以下信息后,保存退出:2.2、修改ifcfg-eth0和ifcfg-eth1的配置信息:(此处为网卡eth0和eth1绑定)# vi /etc/sysconfig/network-scripts/ifcfg-ethX修改后配置信息如下:# cat ifcfg-eth0# cat ifcfg-eth12.3、修改/etc/modprobe.d/dist.conf文件,配置绑定模型,在末尾添加以下内容:(低版本系统直接配置/etc/modprobe.conf文件)alias bond0 bonding options bond0 miimon=100 mode=1//使系统启动时加载bonding模块注:选项miimon 是指定隔多长时间进行链路检查,单位为ms选项mode是表示绑定口的工作模式,有0-6种模式,常用的为0、1:mode=0表示load balancing(round-robin)负载均衡模式,两块网卡都在工作,当一张网卡停止工作时只会降低网络的吞吐量,不影响正常通信,需要交换机支持;mode=1表示fault-tolerance(active-backup)主备工作模式,提供冗余功能。

linux下双网卡绑定配置

linux下双网卡绑定配置

在linux下如何做双网卡绑定实现冗余?一、Linux Channel Bonding目前在各个发行版本的 Linux 中,使用最普遍的内核版本应该就是 2.4.x的版本了,而Linux Channel Bonding,在 Linux 2.4 的内核中,就提供了 bonding 的驱动,可以支持把多个网络适配器集合在一起,当作一个网络适配器来使用。

在 Linux 下,网卡的高可用性是通过 MII 或者 ETHTOOL 的状态监测来实现的,所以,需要检查系统中的网络适配器是否支持 MII 或者 ETHTOOL 的连状态监测。

可以用命令 "ethtool eth0" 来检查,如果显示的 "Link detected:" 信息与实现的连接状态一致,就没有问题。

如果系统中的网络适配器不支持 MII 或者 ETHTOOL 状态监测,当连接失效时,系统就不能检测到,同时,在 bonding 驱动加载时,会记录一条不支持 MII 和 ETHTOOL 的警告信息。

下面简单介绍一下实现的基本方法:首先,我们需要打开内核对 bonding 支持。

设置内核 "make menuconfig/xconfig/config",在"Network device support"区段中选择"Bonding driver support",建议设置该驱动程序为模块,这样才能支持给驱动传递参数和设置多个bonding设备。

生成并安装新的内核和模块。

Bonding 的设置我们需要在 /etc/modules.conf 中加入两行,这样才可以在设置了 bond 设置后,系统启动的时候自动加载 bonding 的驱动程序alias bond0 bondingoptions bond0 miimon=100 mode=1当mode=1时为主备模式,mode=0时为负载均衡模式。

《Linux双网卡绑定和解除绑定的实现》经典培训课件

《Linux双网卡绑定和解除绑定的实现》经典培训课件

2 配置文件修改
学习通过修改配置文件来解除网卡绑 定。
绑定网卡故障排除
1 常见问题和解决方法
探索双网卡绑定过程中可能遇到的常 见问题,并学习相应的解决方法。
2 日志分析和错误追踪技巧
了解如何使用日志文件来分析问题以 及跟踪错误。
案例分析
1 实例演示
通过实际案例演示,加深对双网卡绑定的理 解和实际操作经验。
《Linux双网卡绑定和解 除绑定的实现》经典培训 课件
在本课程中,我们将深入学习Linux双网卡绑定的实现原理和操作方法,以及 解除绑定的技巧和故障排除。
绪论
1 课程背景
了解为什么双网卡绑定在Linux中是一 个重要的主题。
2 目标和重点
明确我们在本课程中的学习目标和关 注点。
Linux双网卡绑定概述
2 常见问题解答
回答学员在案例分析中可能提出的问题,确 保他们理解并掌握了关键概念。
总结
1 总结课程要点
回顾并总结本课程的关键要点,确保 学员达到预期学习目标。
2 后续

1 什么是双网卡绑定
了解双网卡绑定的定义和基本原理。
2 绑定的优势和应用场景
探索双网卡绑定的优点以及在实际应用中的 常见场景。
绑定网卡的方法
1 命令行配置
2 配置文件修改
学习通过命令行工具配置双网卡绑定。
掌握在配置文件中进行双网卡绑定设 置的方法。
解除网卡绑定的方法
1 取消绑定命令行配置
了解如何使用命令行工具来取消双网 卡的绑定设置。

HPProLiant服务器-Windows下利用NCU工具配置网卡多vlan

HPProLiant服务器-Windows下利用NCU工具配置网卡多vlan

HPProLiant服务器-Windows下利用NCU工具配置网卡多
vlan
让网卡支持多vlan,也就是打开网卡的802.1q 的标准协议,这个可以通过HP Network Configuration Utility 打开该功能。

打开NCU 工具,选择我们准备要配置多vlan 的网卡,选择属性。

在属性菜单栏里,我们选择VLAN 一项。

在这里,我们可以针对网卡,添加多个vlan 了。

点Add,弹出如下对话框,在里面添入vlan 名称和id 号。

Vlan 最多可以添加到4094。

添加完成vlan 后,如下图。

需要注意的是,至少需要有一个默认(原生)VLAN 。

点确定,回到主菜单,这时可以看到前面有个V,代表该网卡有vlan 的工具,点确定,让配置生效。

查看网卡属性,可以看到多出来的 3 个网卡,这 3 个网卡是具有vlan 的,而原来的网卡将不可用。

查看设备管理器。

当然网卡支持了多vlan,对应的这块网卡连接到交换机也需要配置802.1q 的协议才可以通信。

suse linux双网卡绑定设置详解

suse linux双网卡绑定设置详解

suse linux双网卡绑定设置详解双网卡的绑定可以实现冗余和高可用性,在suse linux 10中和redhat linux 5中设置双网卡绑定是不太一样的,下面详解一下suse linux 下的双网卡绑定:1、首先确保两个网卡上都连接线缆并且工作是正常的,然后cd/etc/sysconfig/network下,新建一个文件vi ifcfg-bond0,输入如下内容保存BOOTPROTO='static'BROADCAST=''IPADDR='172.29.141.130/25' #要绑定的ip地址NETMASK='255.255.255.128'#网段的掩码NETWORK=''STARTMODE='auto'BONDING_MASTER='yes'BONDING_MODULE_OPTS='mode=1 miimon=100 use_carrier=0'# mode=1是主备模式 mode=0是平衡模式BONDING_SLAVE0='eth-id-68:B5:99:77:3C:66' #第一块网卡的mac 地址BONDING_SLAVE1='eth-id-68:B5:99:77:3C:68' #第二块网卡的mac 地址ETHTOOL_OPTIONS=''MTU=''NAME=''REMOTE_IPADDR=''USERCONTROL='no'2、使用yast进入网卡的配置界面,把原有的两块网卡设置为没有ip3 、注意网关的配置,使用yast进入路由设置界面,在这里可以配置网关。

4、然后输入rcnetwork restart重启网络服务5、然后输入cat /proc/net/bonding/bond0看网卡工作状态,看到bond0,eth0,eth1都是正常的就ok 了。

linux双网卡绑定

linux双网卡绑定

一、L inux bonding研究及实现Linux Bonding本文介绍Linux(具体发行版本是CentOS5.6)下的双卡绑定的原理及实现。

Linux双网卡绑定实现是使用两块网卡虚拟成为一块网卡设备,这简单来说,就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。

这项技术在Sun和Cisco中分别被称为Trunking和Etherchannel技术,在Linux的2.4.x及其以后的内核则称为Bonding 技术。

bonding的前提条件:网卡应该具备自己独立的BIOS芯片,并且各网卡芯片组型号相同。

同一台服务器上的网卡毫无疑问是是符合这个条件的。

Bonding原理bonding的原理:在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身MAC的以太网帧,过滤别的数据帧,以减轻驱动程序的负担;但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,bonding就运行在这种模式下,而且修改了驱动程序中的mac地址,将两块网卡的MAC地址改成相同,可以接收特定MAC的数据帧。

然后把相应的数据帧传送给bond驱动程序处理。

为方便理解bonding的配置及实现,顺便阐述一下Linux的网络接口及其配置文件。

在Linux 中,所有的网络通讯都发生在软件接口与物理网络设备之间。

与网络接口配置相关的文件,以及控制网络接口状态的脚本文件,全都位于 /etc/sysconfig/netwrok-scripts/目录下。

网络接口配置文件用于控制系统中的软件网络接口,并通过这些接口实现对网络设备的控制。

当系统启动时,系统通过这些接口配置文件决定启动哪些接口,以及如何对这些接口进行配置。

接口配置文件的名称通常类似于 ifcfg-<name>,其中 <name> 与配置文件所控制的设备的名称相关。

在所有的网络接口中,最常用的就是以太网接口ifcfg-eth0,它是系统中第一块网卡的配置文件。

Linux和Windows下绑定双网卡

Linux和Windows下绑定双网卡

HP ProLiant服务器系列- Windows 系统下的网卡绑定方法DL380G4 主板集成网卡进行网卡绑定,需要使用HP Network Configration utility(NCU)工具进行绑定。

如果服务器是通过HP SmartStart光盘引导安装的,在系统安装完成后右下角会有一个网卡绑定的图标(如图)。

如果是直接用操作系统光盘引导安装的操作系统,也可以通过单独安装NCU 工具来进行网卡绑定。

NCU 工具在SmartStart光盘compaq/csp/nt/ 目录下。

如果网卡驱动版本过低会有报错提示,更新网卡驱动到最新再尝试安装即可。

网卡绑定:1. 双击图标,运行工具。

2. 选中网卡,TEAM 绑定,Y 确认继续。

3. SAVE 保存。

4. 绑定中。

5. 确认完成。

6. 在网络连接里可以查看到已经生成的虚拟网卡,至此网卡绑定成功。

这项技术在Sun和Cisco的设备中早已存在,分别被称为Trunking和Etherchannel,在Linux中这种技术被称为Bonding。

Bonding运行在网卡的混杂(promiscuous )模式下而且它将两块网卡的MAC地址修改为一样的。

利用Bonding技术配置双网卡绑定的前提条件是两块网卡芯片组型号相同。

多网卡绑定的优点不少,首先,可以增大带宽,假如一个网卡的带宽是100M,理论上两块网卡就是200M,三块就是300M,当然实际上的效果是不会是这样简单的增加的,不过经实际测试使用多个网卡对于增加带宽,保持带宽的稳定性肯定是有裨益的,如果交换机等相关条件不错的话,这个效果还是很能令人满意;其次,可以形成网卡冗余阵列、分担负载,双网卡被绑定成“一块网卡”之后,同步一起工作,对服务器的访问流量被均衡分担到两块网卡上,这样每块网卡的负载压力就小多了,抗并发访问的能力提高,保证了服务器访问的稳定和畅快,当其中一块发生故障的时候,另一块立刻接管全部负载,过程是无缝的,服务不会中断.适用范围:Proliant ML ,DL 系列服务器操作步骤:1. 从网上下载或是从光盘里安装HP Network Configuration Utility 程序,安装后,右下角任务栏回出现相应的图标。

Ubuntu配置双网卡

Ubuntu配置双网卡

Ubuntu配置双网卡我们假定内网IP为:10.35.0.58,内网网关为:10.35.0.254;外网IP为222.76.250.4,外网网关为:222.76.250.1.其中局域名网需要连接:10.35.0.X,10.35.51.X,10.35.60.X 三个网段.1.当配置服务器为外网IP和内网IP的方式时,只设置外网IP的网关,不要设置内网IP的网关.操作如下:sudo nano /etc/network/interfaces用上面的命令打开网络的配置文件后,修改里面的内容如下auto eth0iface eth0 inet staticaddress 10.35.0.58netmask 255.255.255.0iface eth1 inet staticaddress 222.76.250.4netmask 255.255.255.224gateway 222.76.250.1auto eth1注意:我们没有为 eth0(内部网络)设置 gateway.修改完成后,我们用 Ctrl + O 保存刚才的修改,然后用 Ctrl + X 来退出编辑器.2.这时候我们重启下网络.Ubuntu 重启网络的命令是:sudo /etc/init.d/networking restart3.由于没有设置内网网关,所以我们用 SecureCRT 之类的工具是连不上服务器的.为了解决这个问题,我们需要设置服务器的路由.如下:sudo route add -net 10.35.0.0/24 gw 10.35.0.254 dev eth0sudo route add -net 10.35.51.0/24 gw 10.35.0.254 dev eth0sudo route add -net 10.35.60.0/24 gw 10.35.0.254 dev eth0以上命令依次分别为10.35.0.X,10.35.51.X,10.35.60.X 三个网段设置路由.如果外网连不上,你可以试下:sudo route add default gw 222.76.250.4 dev eth1此时输入 route 命令,应该看到的是如下图所示的页面:今天为服务器配置双网卡的时候,需要配置路由.因为路由是用命令添加的,所以每次关机或重起系统,路由就丢失了.于是想到每次重起的时候执行一段脚本用来添加路由,这样我就不用每次重起都手动添加了.以下用添加路由为例.我想在系统启动时执行:sudo route add -net 10.35.0.0/24 gw 10.35.0.254 dev eth0sudo route add -net 10.35.51.0/24 gw 10.35.0.254 dev eth0sudo route add -net 10.35.60.0/24 gw 10.35.0.254 dev eth01.首先,我们创建一个 /etc/network.script 文件.输入命令:sudo nano /etc/network.script2.接着我们在文本编辑器中输入我们要执行的命令.如上面的:sudo route add -net 10.35.0.0/24 gw 10.35.0.254 dev eth0sudo route add -net 10.35.51.0/24 gw 10.35.0.254 dev eth0sudo route add -net 10.35.60.0/24 gw 10.35.0.254 dev eth03.按 Ctrl + O 保存文件,然后按 Ctrl + X 退出.4.接着我们再用 nano 打开 /etc/rc.local .输入命令:sudo nano /etc/rc.local5.在文本编辑中,我们会看到提示说 /etc/rc.local 默认是空的.但我打开的时候,会看到里面其它有一行:exit 0如果是这样,我们一定要在 exit 0 之前输入我们要执行的脚本文件.如下:sh /etc/network.scriptexit 0转自:/viewarticle.php?id=79309ubuntu双网卡设置内外网上网的问题台双网卡电脑拥有两个网关是不可能的,因为默认网关(default gateway)只能是一个。

linux中配置双网卡的目的?如何实现双网卡绑定,以实现负载均衡?

linux中配置双网卡的目的?如何实现双网卡绑定,以实现负载均衡?

linux中配置双⽹卡的⽬的?如何实现双⽹卡绑定,以实现负载均衡?配置双⽹卡的⽬的:==========================1、你想做路由器,⽹关2、实现冗余3、负载均衡linux 主机安装双⽹卡,共享⼀个IP地址,对外提供访问,实际同样连接两条物理线路到交换机实现平时双⽹卡同时⼯作,分流⽹络压⼒,同时提供冗余备份,监控,防⽌物理线路的单点故障。

⽤于关键性节点服务器,⾼⽹络IO服务器,⽹络共享存储服务器等。

Linux bonding 驱动模块提供了⼀种⽅法,⽤以把多个⽹络接⼝(network interface)组合成⼀个逻辑的 "bonded" 接⼝。

Bonded 接⼝的⼯作⽅式取决于驱动的模式:不同的模式提供了热备份或负载均衡等不同的服务。

此外,驱动还会监控链路的可⽤性。

⼤多数⽬前发布的Linux内核都以模块(module)⽅式带了bonding驱动,ifenslave⼯具(主要配置⼯具)也都已经安装好。

CentOS双⽹卡绑定,实现负载均衡确保关闭 SElinux Networkmanager , 给虚拟机添加⼀张⽹卡 ens37 ,确保两张虚拟⽹卡都是相同的连接模式 NAT 。

bind0 IP 地址: 192.168.10.54先关闭两张⽹卡[root@uplooking ~]# ifdown ens33[root@uplooking ~]# ifdown ens38新建⽹卡配置⽂件[root@uplooking /etc/sysconfig/network-scripts]#vim ifcfg-bond0ifcfg-bond0 配置⽂件 ==============TYPE=EthernetBOOTPROTO=staticNAME=bond0DEVICE=bond0IPADDR="192.168.10.54"NETMASK=255.255.255.0GATEWAY=192.168.10.2ONBOOT=yesBONDING_OPTS="miimon=100 mode=6" ##bonding 参数直接在⽹卡配置⽂件中指派,并且开机可以⾃动⽣效## mode=1 1为储备模式,推荐为 6 ,不会浪费资源。

Ubuntu双网卡绑定的设置方法

Ubuntu双网卡绑定的设置方法

Ubuntu双网卡绑定的设置方法
转自:
发布:脚本学堂/Ubuntu/Debian 编辑:thatboy 2013-05-23 10:14:00 【大中小】
本文介绍下,在ubuntu中绑定双网卡的方法,很多朋友都在寻找这个方法,本文分享一下,有需要的朋友参考下吧。

1,安装bonding需要的软件
2,在/etc/modules中加入:
说明:
miimon是用来进行链路监测的。

比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。

mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作,带宽加倍。

mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,默认情况下只有一块网卡工作,另一块做备份。

bonding只能提供链路监测,即从主机到交换机的链路是否接通。

如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用。

本文地址:。

Linux双网卡绑定

Linux双网卡绑定

Linux6.5 双网卡绑定(以绑定eth0与eth1为例,尽量保证两个绑定的网口在一张网卡上)ps:用超级用户执行以下操作1.检查系统配置上是否支持bonding:# cat /boot/config-2.6.32-431.el6.x86_64 | grep -i bondingCONFIG_BONDING=m(返回CONFIG_BONDING=m 表示支持,否则需要编译内核使之支持bonding)2.为防止出错,可以先备份网卡配置目录。

(路径:/etc/sysconfig/network-scripts/下eth0, eth1, eth2都备份)3.配置bond0 //不能拷取,需要手动新建:vi ifcfg-bond0即可/etc/sysconfig/network-scripts/下创建一个ifcfg-bond0,内容如下:DEVICE=bond0BOOTPROTO=staticNM_CONTROLLED=no (这里一定要是no)ONBOOT=yesIPADDR=192.168.1.51NETMASK=255.255.255.0GATEWAY=192.168.1.1USERCTL=noBONDING_OPTS="mode=1 miimon=200"(0模式,可以实现双网卡的负载均衡,1模式,双网卡的主/备切换miimon 表示切换侦测时间200毫秒)4.修改ifcfg- eth0和ifcfg- eth1 // (系统文件不能拷取,需要手动修改,否则会导致绑定失败)# vim ifcfg- eth0DEVICE=eth0BOOTPROTO=staticMASTER=bond0SLAVE=yesONBOOT=yesUSERCTL=no# vim ifcfg-eth1DEVICE=eth1BOOTPROTO=staticMASTER=bond0SLAVE=yesONBOOT=yesUSERCTL=no5.修改/etc/modprobe.d/dist.conf文件,最后加上alias bond0 bonding6.修改/etc/rc.d/rc.local文件,最后加上ifenslave bond0 eth0 eth17.关闭NetworkManager服务# service NetworkManager stop# chkconfig NetworkManager off8.reboot机器,最好重启机器,不是重启网卡9.输入指令:ifconfig -a,查看eth0,eth1的MAC地址是否与bond0一致10.查看bond0的运行状态cat /proc/net/bonding/bond0备注:对于绑定eth1与eth2的服务器,记得修改eth0,否则会导致ip冲突,修改参照下图。

linux双网卡绑定配置

linux双网卡绑定配置

“?REDHAT linux双网卡绑定配置(v 130214)版本说明目录版本说明 (2)1、配置驱动模块 (4)2、建立bonding网卡配置 (4)3、修改被绑定网卡的配置 (6)4、修改/etc/sysconfig/network-scripts/ifcfg-eth1 (6)5、导入bonding驱动: (6)6、重启网络 (7)1、配置驱动模块修改文件/etc/modprobe.conf,找到:alias eth0 8139cpalias eth1 8139cp注意:8139cp为网卡型号。

在此内容后加入:######## Bonding ##########alias bond0 bondingoptions bonding max_bonds=1或######## Bonding ##########alias bond0 bondingoptions bond0 miimon=100 mode=12、建立bonding网卡配置新建文件/etc/sysconfig/network-scripts/ifcfg-bond0,输入以下内容:DEVICE=bond0ONBOOT=yesBOOTPROTO=staticIPADDR=192.168.100.21NETMASK=255.255.255.0USERCTL=noBONDING_OPTS="mode=1 miimon=100 primary=eth0"BONDING_OPTS参数解释此参数用于指定网卡绑定时的属性,以下是对常用参数进行的解释:miimon参数:指定网卡故障时的切换时间间隔以ms为单位。

primary参数:指定默认的主网卡设备。

mode参数:0-轮询模式,所绑定的网卡会针对访问以轮询算法进行平分。

1-高可用模式,运行时只使用一个网卡,其余网卡作为备份,在负载不超过单块网卡带宽或压力时建议使用。

2-基于HASH算法的负载均衡模式,网卡的分流按照xmit_hash_policy的TCP协议层设置来进行HASH 计算分流,使各种不同处理来源的访问都尽量在同一个网卡上进行处理。

linux下双网卡绑定的负载均衡

linux下双网卡绑定的负载均衡

linux下双网卡绑定的负载均衡一、双网卡绑定1,新建个ifcfg-bond0 (cp /etc/sysconfig/network-scripts/ifcfg-eth0/etc/sysconfig/network-script/ifcfg-bond0)2,修改ifcfg-bond0文件,去掉mac地址相关信息(HW ADDR),给个ip地址,网络地址,广播地址如下:# cat ifcfg-bond0DEVICE= bond0BOOTPROTO=staticIPADDR=192.168.1.136//*第一个IP地址*//NETMASK=255.255.255.0 //*网络掩码*//ONBOOT=yes:wq //*保存退出*//3,修改ifcfg-eth0和ifcfg-eth1,如下:cat ifcfg-eth0cat ifcfg-eth14,修改/etc/modprobe.conf,添加如下语句:alias bond0 bondingoptions bond0 miimon=100 mode=1注释:mode可以为0,1,0为负载均衡,1为失效保护如下图:5,修改/etc/rc.d/rc.local,添加如下内容:ifenslave bond0 eth0 eth1route add -net 192.168.1.255 netmask 255.255.255.0 bond0如下图:6,重启,看能否通过ssh登陆上服务器bond0得ip(192.168.1.136),如果成功登陆或者ping通了,再查看一下连接状态ifconfig,如下图:ifconfig查看连接状态7,尝试拔掉一根网线看是否能正常登陆上去(或ping得通),再查看一下更连接状态(cat /proc/net/bonding/bond0)如下图:8,尝试一下更换一下mode的值,再试一下。

我自己尝试了一下0和1,都成功了,当拔一根网线的时候,均能正常连接到服务器上,不同的是,当你用ifconfig查看连接状态的时候,你会发现当mode=0的时候双网卡是同时工作的,都有数据包传输,数据传输量几乎一样多(两块网卡同时在工作),用mode=1的时候,你会发现只有一个网卡存在数据传输,另一块网卡没有数据传输(只有一块网卡在工作)。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

NCU软件的详细功能以及使用
设备:DL380 G5 + HP ProCurve 2510交换机
Contents
NCU软件简介 (1)
启动NCU (3)
NFT模式设置 (7)
TLB模式设置 (14)
SLB模式设置 (16)
SLB增强模式802.3ad设置 (22)
网卡绑定多个VLAN (27)
NCU软件简介
HP Network Configuration Utility(以下简称NCU)网卡绑定工具,用户可以通过该工具很方便的把服务器的多个网卡捆绑到一起以达到容错和增加可用带宽的目的。

在HP下载NCU安装后进入控制面板启动NCU软件,如果检测到网卡驱动版本过低,会提示更新网卡驱动。

启动NCU
更新后可以正常启动NCU不再会有报错信息
启动后可以看到机器带有2个以太网接口
分别点击2个网卡接口可以选中
点击Team 选项可以把2个网口捆绑到一起
点击HP Network Team #1选择Properties,可以看到对于整个网卡组的配置。

点击Team Type Selection通过图中我们可以看到NCU中可以设置7种工作模式
NFT模式设置
常用的分别为NFT,TLB,SLB三个模式
NFT(Network Fault Tolerant): 这种模式下一个网口处于Active状态,另外一个网口处于Standby状态,可以把2个网线连接到不同的交换机上面达到容错目的。

在NFT之外还有一种是Network Fault Tolerance with Preference Order模式,该模式为NFT的增强版。

就是带有优先级的NFT模式,比如服务器分别连接到2台交换机上,一台交换机为千兆,一台交换机为百兆。

那么连接千兆交换机的网口为Active 状态,连接百兆交换机的网口为Standby状态。

点击OK后会提示是否应用修改。

正在应用设置,该过程需要等一段时间才能应用完毕。

应用完毕后可以看到网络连接中会生成一个本地连接名称为HP Network Team #1的网络连接,可以给该连接设置一个IP地址来访问网络上的主机
下面将一台笔记本连接到交换机上,设置IP地址和服务器Team所设置的IP地址在一个网段中。

使用ping命令测试网络连通
将一个网卡禁用掉之后,网络依然可以正常ping 通,说明NFT允许网络容错
将2个网口都禁用掉之后发现网络无法ping 通,由于机器只有2个网口,所以主机无法ping 通
TLB模式设置
TLB(Transmit Load Balance with Fault Tolerance):服务器向外发送的数据包根据一定规则分别从2个网口向外发送,发送带宽为双倍,接收还是默认的一个网卡带宽。

并且也带有容错功能。

TLB之外也和NFT一样也有一个增强模式为:Transmit Load Balance with Fault Tolerance and Preference Order原理同Network Fault Tolerance with Preference Order一样。

选择TLB后,默认发送带宽为2个网络带宽之和。

在Team Utilization中可以看到。

TX为200Mbps
SLB模式设置
SLB(Switch-assist Load Balance):交换机协助负载均衡,需要交换机端支持,并且2个网口必须连接到同一个交换机上,并且交换机需要启动负载均衡功能。

在Cisco交换机上叫EtherChannel,在HP Procurve交换机上叫做port trunk。

SLB可以做到双向带宽都为2个网口带宽之和,并且可以提供网卡容错。

但是无法提供交换机方面的容错。

该实验使用HP ProCurve 交换机的配置如下(交换机接口默认启动LACP被动协商模式):
在Team Properties中选择SLB模式
在Team Utilization中可以看到收发都为200Mbps.达到了带宽翻倍的目的。

SLB模式下禁用一个网卡依然网络还是通的
SLB增强模式802.3ad设置
802.3ad Dynamic with Fault Tolerance:该功能和SLB类似,只不过该功能属于被动协商,也就是当收到交换机端口所发送的LACP报文之后才能自动进入链路聚合模式达到带宽增加的目的。

HP ProCurve交换机中需要使用“trunk 端口号trk1 lacp”命令来启动机器连接端口的LACP主动协商验证模式
另外Automatic模式其实不是一种单独的模式,而是会动态识别网卡端口是否连接到802.3ad链路端口,如果连接的是802.3ad端口则以802.3ad Dynamic模式工作,如果没有发现802.3ad链路信息责以TLB方式工作
由于交换机端默认开启的是被动协商,所以当设置802.3ad Dynamic模式后网络连接被断开
查看Team Utilization中可以看到RX和TX都为0bps
当手动将交换机上网卡接入的端口开启LACP主动协商模式后,网卡状态变成正常工作状态。

网卡绑定多个VLAN
将网口1插入网线,交换机端网口接入端口VLAN划分到VLAN 2 Name office。

IP地址设置为:192.168.100.1交换机中设置另外一个VLAN 100 Name test,将一台笔记本接入VLAN 100,并且设置笔记本的IP地址为:192.168.110.200由于服务器和笔记本并没有在同一VLAN,并且没有三层路由设备,因此无法通讯。

在NCU工具中选中网口1,之后点击VLAN(802.1Q)按钮
在VLAN Properties中添加本地网口接入的VLAN 2 该VLAN默认为Native Vlan
可以看到网口1前面出现一个V的图标,说明已经设置网口跨VLAN。

点击OK应用设置后,进入网络连接选项,可以看到出现2个本地连接,分别为OFFICE 和TEST
网卡的实际本地连接的TCP/IP选项中IP无法设置,需要在生成的另外2个本地连接中分别设置该VLAN相对应的子网IP地址。

设置本地连接OFFICE的IP地址为:192.168.100.1
由于笔记本所设置的IP地址为:192.168.110.200因此,需要将相对应VLAN 100 的虚拟网卡接口TEST IP地址设置为192.168.110.110
在交换机中需要把配置文件做如下修改:
交换机配置中需要注意,由于把服务器网线接入2号口,笔记本接入3号口,所以需要在2号口上标记tagged。

并且2号口需要分别设置tagged 2个需要走不同802.1Q标签的VLAN,也就是其中的VLAN 2 ,VLAN200。

由于笔记本所连接的网口不走802.1Q数据,所以设置untagged。

在交换机端修改完毕后,在本地ping 笔记本的IP地址:192.168.110.100。

笔记本所设置的另外一个网段的IP 地址可以PING通。

说明网卡跨VLAN通信在没有三层路由设备的情况下通过NCU工具可以实现通信的目的。

总结:通过该实验可以更进一步了解NCU配置工具的设置,如:NFT, SLB, TLB以及跨VLAN通信等NCU的相关功能。

了解之后可以更清楚对于用户的具体需求来提供服务器端网络设置的相关服务。

相关文档
最新文档