kvm网络模式
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
摘要:KVM虚拟机网络配置的两种方式:NAT方式和Bridge方式。
Bridge方式的配置原理和步骤。
Bridge方式适用于服务器主机的虚拟化。
Bridge模式
问题
客户机安装完成后,需要为其设置网络接口,以便和主机网络,客户机之间的网络通信。
事实上,如果要在安装时使用网络通信,需要提前设置客户机的网络连接。
KVM 客户机网络连接有两种方式:
•用户网络(User Networking):让虚拟机访问主机、互联网或本地网络上的资源的简单方法,但是不能从网络或其他的客户机访问客户机,性能上也需要大的调整。
NAT方式。
•虚拟网桥(Virtual Bridge):这种方式要比用户网络复杂一些,但是设置好后客户机与互联网,客户机与主机之间的通信都很容易。
Bridge方式。
本文主要解释Bridge方式的配置。
Bridge方式原理
Bridge方式即虚拟网桥的网络连接方式,是客户机和子网里面的机器能够互相通信。
可以使虚拟机成为网络中具有独立IP的主机。
桥接网络(也叫物理设备共享)被用作把一个物理设备复制到一台虚拟机。
网桥多用作高级设置,特别是主机多个网络接口的情况。
如上图,网桥的基本原理就是创建一个桥接接口br0,在物理网卡和虚拟网络接口之间传递数据。
Bridge方式的适用范围
服务器主机虚拟化。
网桥方式配置步骤
1、编辑修改网络设备脚本文件,增加网桥设备br0
vi /etc/sysconfig/network-scripts/ifcfg-br0
DEVICE="br0"
ONBOOT="yes"
TYPE="Bridge"
BOOTPROTO=static
IPADDR=
NETMASK=
GATEWAY=
DEFROUTE=yes
上述配置将虚拟网卡配置在了网段。
如果不需要静态地址,可以把配置地址的相关项屏蔽。
如:
DEVICE="br0"
ONBOOT="yes"
TYPE="Bridge"
BOOTPROTO=dhcp
2、编辑修改网络设备脚本文件,修改网卡设备eth0
DEVICE="eth0"
NM_CONTROLLED="no"
ONBOOT="yes"
TYPE=Ethernet
BOOTPROTO=none
BRIDGE="br0"
NAME="System eth0"
HWADDR=44:37:E6:4A:62:AD
NM_CONTROLLED这个属性值,根据redhat公司的文档是必须设置为“no”的(这个值为“yes”表示可以由服务NetworkManager来管理。
NetworkManager服务不支持桥接,所以要设置为“no”。
),但实际上发现设置为“yes”没有问题。
通讯正常。
3、重启网络服务
#service network restart
4、校验桥接接口
#brctl show
bridge name bridge id STP enabled interfaces br0 no eth0
客户机配置
客户机安装时注意,网络要选择用br0桥接方式。
图形化的方式:
文本方式:
编辑修改虚拟机配置文件 /etc/libvirt/qemu/,增加如下内容
<interface type='bridge'>
<mac address='52:54:00:da:c3:dc'/>
<source bridge='br0'/>
<model type='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/>
</interface>
虚拟机启动后,验证网络接口是否正常:
# brctl show
bridge name bridge id STP enabled interfaces
br0 no eth0
vnet0
NAT方式的影响
网桥方式的配置与虚拟机支持模块安装时预置的虚拟网络桥接接口virbr0没有任何关系,配置网桥方式时,可以把virbr0接口(即NAT方式里面的default 虚拟网络)删除。
# virsh net-destroy default
# virsh net-undefine default
# service libvirtd restart
NAT模式
问题
客户机安装完成后,需要为其设置网络接口,以便和主机网络,客户机之间的网络通信。
事实上,如果要在安装时使用网络通信,需要提前设置客户机的网络连接。
KVM 客户机网络连接有两种方式:
•用户网络(User Networking):让虚拟机访问主机、互联网或本地网络上的资源的简单方法,但是不能从网络或其他的客户机访问客户机,性能上也需要大的调整。
NAT方式。
•虚拟网桥(Virtual Bridge):这种方式要比用户网络复杂一些,但是设置好后客户机与互联网,客户机与主机之间的通信都很容易。
Bridge方式。
本文主要解释NAT方式的配置。
NAT方式原理
NAT方式是kvm安装后的默认方式。
它支持主机与虚拟机的互访,同时也支持虚拟机访问互联网,但不支持外界访问虚拟机。
检查当前的网络设置:
#virsh net-list --all
Name State Autostart
-----------------------------------------
default active yes
default是宿主机安装虚拟机支持模块的时候自动安装的。
检查当前的网络接口:
#ifconfig
eth0 Link encap:Ethernet HWaddr 44:37:E6:4A:62:AD
inet6 addr: fe80::4637:e6ff:fe4a:62ad/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:987782 errors:0 dropped:0 overruns:0 frame:0
TX packets:84155 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:1 MiB) TX bytes: MiB)
Interrupt:17
lo Link encap:Local Loopback
inet addr: Mask:
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:4 errors:0 dropped:0 overruns:0 frame:0
TX packets:4 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0
RX bytes:240 b) TX bytes:240 b)
virbr0 Link encap:Ethernet HWaddr 52:54:00:B9:B0:96
inet addr: Bcast: Mask:
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:2126 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0
RX bytes:0 b) TX bytes:100387 KiB)
virbr0-nic Link encap:Ethernet HWaddr 52:54:00:B9:B0:96 BROADCAST MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:500
RX bytes:0 b) TX bytes:0 b)
其中virbr0是由宿主机虚拟机支持模块安装时产生的虚拟网络接口,也是一个switch和bridge,负责把内容分发到各虚拟机。
几个虚拟机管理模块产生的接口关系如下图:
从图上可以看出,虚拟接口和物理接口之间没有连接关系,所以虚拟机只能在通过虚拟的网络访问外部世界,无法从网络上定位和访问虚拟主机。
virbr0是一个桥接器,接收所有到网络的内容。
从下面命令可以验证:
# brctl show
bridge name bridge id STP enabled interfaces
virbr0 yes virbr0-nic
# route
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
* U 0 0 0 virbr0
同时,虚拟机支持模块会修改iptables规则,通过命令可以查看:
# iptables -t nat -L -nv
Chain PREROUTING (policy ACCEPT 16924 packets, 2759K bytes)
pkts bytes target prot opt in out source destination
Chain POSTROUTING (policy ACCEPT 2009 packets, 125K bytes)
pkts bytes target prot opt in out source destination
421 31847 MASQUERADE all -- * * ! ----------->这条是关键,它配置了NAT功能。
Chain OUTPUT (policy ACCEPT 2011 packets, 125K bytes)
pkts bytes target prot opt in out source destination
# iptables -t filter -L -nv
Chain INPUT (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
1 74 ACCEPT udp -- virbr0 * udp dpt:53 ---->由libvirt脚本自动写入
0 0 ACCEPT tcp -- virbr0 * tcp dpt:53 ---->由libvirt脚本自动写入
3 98
4 ACCEPT udp -- virbr0 * udp dpt:67 ---->由libvirt脚本自动写入
0 0 ACCEPT tcp -- virbr0 * tcp dpt:67 ---->由libvirt脚本自动写入
178K 195M ACCEPT all -- * * state RELATED,ESTABLISHED ---->iptables的系统预设2 168 ACCEPT icmp -- * * ---->iptables的系统预设
1148 216K ACCEPT all -- lo * ---->iptables的系统预设
1 60 ACCEPT tcp -- * * state NEW tcp dpt:2
2 ---->iptables的系统预设
16564 2721K REJECT all -- * * reject-with icmp-host-prohibited ---->iptables的系统预设
Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
3726 3485K ACCEPT all -- * virbr0 state RELATED,ESTABLISHED ---->由libvirt脚本自动写入
3491 399K ACCEPT all -- virbr0 * ---->由libvirt脚本自动写入
0 0 ACCEPT all -- virbr0 virbr0 ---->由libvirt脚本自动写入
0 0 REJECT all -- * virbr0 reject-with icmp-port-unreachable ---->由libvirt脚本自动写入
0 0 REJECT all -- virbr0 * reject-with icmp-port-unreachable ---->由libvirt脚本自动写入0 0 REJECT all -- * * reject-with icmp-host-prohibited ---->iptables的系统预设
Chain OUTPUT (policy ACCEPT 181K packets, 138M bytes)
pkts bytes target prot opt in out source destination
如果没有default的话,或者需要扩展自己的虚拟网络,可以使用命令重新安装NAT。
NAT方式的适用范围
桌面主机虚拟化。
创建步骤
#virsh net-define /usr/share/libvirt/networks/
此命令定义一个虚拟网络,的内容:
<network>
<name>default</name>
<bridge name="virbr0" />
<forward/>
<ip address="" netmask="">
<dhcp>
<range start="" end="" />
</dhcp>
</ip>
< /network>
也可以修改xml,创建自己的虚拟网络。
标记为自动启动:
#virsh net-autostart default
Network default marked as autostarted
启动网络:
#virsh net-start default
Network default started
网络启动后可以用命令brctl show 查看和验证。
修改/etc/中参数,允许ip转发:
客户机安装
客户机安装时注意,网络要选择用NAT方式。
图形化的方式:
文本方式:
编辑修改虚拟机配置文件/etc/libvirt/qemu/,增加如下内容
<interface type='network'>
<mac address='52:54:00:4f:1b:07'/>
<source network='default'/>
<model type='virtio'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x03' function='0x0'/> </interface>
虚拟机启动后,验证网络接口是否正常:
# brctl show
bridge name bridge id STP enabled interfaces
virbr0 yes virbr0-nic
vnet0
Bridge方式的影响
Bridge方式配置出来的接口对NAT方式没有影响,因为NAT方式并没有使用物理网卡。
但作为客户机,只能选择其中的一种。
客户机动态迁移
源机和目的机rhel版本必须一致
1 源端建立nfs
Vi /etc/exports
/var/lib/libvirt/images *.(rw,no_root_squash,sync)
2 在目的端mount nfs
# mount storage_host:/var/lib/libvirt/images /var/lib/libvirt/images
3 在目的端执行virsh
# virsh migrate --live GuestName DestinationURL
DestinationURL指的是目的机的主机名或ip
例如:
# virsh migrate --live guest1-rhel6-64 qemu+客户机自动启动
virsh autostart TestServer
Domain TestServer marked as autostarted
# virsh autostart --disable TestServer
Domain TestServer unmarked as autostarted
改变disk image大小
# qemu-img resize filename [+|-]size[K|M|G|T]
查看vol信息
# virsh vol-info /images/
Name:
Type: file
Capacity: GB
Allocation: KB
创建存储池
基于分区
先分区,格式化
1 定义分区
# virsh pool-define-as guest_images_fs fs -- /dev/sdc1 - "/guest_images" Pool guest_images_fs defined
guest_images_fs pool名称
/devsdc1 分区
/guest_images mount点
2 确认
# virsh pool-list --all
Name State Autostart
-----------------------------------------
default active yes
guest_images_fs inactive no
3 建立mount点
# virsh pool-build guest_images_fs
Pool guest_images_fs built
# ls -la /guest_images
total 8
drwx------. 2 root root 4096 May 31 19:38 .
dr-xr-xr-x. 25 root root 4096 May 31 19:38 ..
# virsh pool-list --all
Name State Autostart
-----------------------------------------
default active yes
guest_images_fs inactive no
4 启动存储池
# virsh pool-start guest_images_fs
Pool guest_images_fs started
# virsh pool-list –all
Name State Autostart
-----------------------------------------
default active yes
guest_images_fs active no
5 自动启动
# virsh pool-autostart guest_images_fs
Pool guest_images_fs marked as autostarted
# virsh pool-list --all
Name State Autostart
-----------------------------------------
default active yes
guest_images_fs active yes
6 确认存储池
# virsh pool-info guest_images_fs
Name: guest_images_fs
UUID: c7466869-e82a-a66c-2187-dc9d6f0877d0
State: running
Capacity: GB
Allocation: MB
Available: GB
# mount | grep /guest_images
/dev/sdc1 on /guest_images type ext4 (rw)
# ls -la /guest_images
total 24
drwxr-xr-x. 3 root root 4096 May 31 19:47 .
dr-xr-xr-x. 25 root root 4096 May 31 19:38 ..
drwx------. 2 root root 16384 May 31 14:18 lost+found
基于目录
1 定义存储池
# virsh pool-define-as guest_images_dir dir ---- "/guest_images" Pool guest_images_dir defined
2 确认
# virsh pool-list --all
Name State Autostart
-----------------------------------------
default active yes
guest_images_dir inactive no
3 创建本地目录
# virsh pool-build guest_images_dir
Pool guest_images_dir built
# ls -la /guest_images
total 8
drwx------. 2 root root 4096 May 30 02:44 .
dr-xr-xr-x. 26 root root 4096 May 30 02:44 ..
# virsh pool-list --all
Name State Autostart
-----------------------------------------
default active yes
guest_images_dir inactive no
4 启动存储池
# virsh pool-start guest_images_dir
Pool guest_images_dir started
# virsh pool-list --all
Name State Autostart
-----------------------------------------
default active yes
guest_images_dir active no
5 自动启动
# virsh pool-autostart guest_images_dir
Pool guest_images_dir marked as autostarted
# virsh pool-list --all
Name State Autostart
-----------------------------------------
default active yes
guest_images_dir active yes
6 确认存储池
# virsh pool-info guest_images_dir
Name: guest_images_dir
UUID: 779081bf-7a82-107b-2874-a19a9c51d24c State: running
Capacity: GB
Allocation: GB
Available: GB
# ls -la /guest_images
total 8
drwx------. 2 root root 4096 May 30 02:44 .
dr-xr-xr-x. 26 root root 4096 May 30 02:44 ..
创建vol
# virsh vol-create-as guest_images_disk volume1 8G
Vol volume1 created
# virsh vol-create-as guest_images_disk volume2 8G
Vol volume2 created
# virsh vol-create-as guest_images_disk volume3 8G
Vol volume3 created
# virsh vol-list guest_images_disk
Name Path
-----------------------------------------
volume1 /dev/sdb1
volume2 /dev/sdb2
volume3 /dev/sdb3
克隆vol
# virsh vol-clone --pool guest_images_disk volume3 clone1 Vol clone1 cloned from volume3。