vmware ESXI5.1中配置虚拟共享磁盘
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
ESXI 5.1中创建windows clust共享磁盘
MSCS故障转移群集是一组独立的计算机,这些计算机相互协作以提高应用程序和服务的可用性。多台群集服务器(称为节点)通过物理电缆和软件连接。如果其中一个群集节点出现故障,另外一个节点就会开始提供服务(该过程称为故障转移)。从而使用户遭遇服务中断的次数降至最低。
微软MSCS架构
下图中,如图1所示,微软MSCS CLUSTER可以实现对应用程序的高可用性,它可以保证应用在短暂的停滞后又快速恢复并且对外提供服务
我们在原先物理环境中共享磁盘往往是我们的存储,比如ISCSI存储、FC光纤存储、直连盘柜等等,那么当我们将业务切换至虚拟化环境中后,我们如何在Vsphere的基础架构中创建共享磁盘呢?
Vsphere作为业界领先的虚拟化产品,支持在虚拟化环境中是使用MSCS,我们只需要简单配置就能实现。
1、首先我们创建MSCS需要两块磁盘,一块数据盘一块仲裁盘,我们的虚拟机文件以后缀为VMDK的形式全部
存放在VMFS的分区中,当然这就需要我们手动的创建两块磁盘,并且分别挂载给两台需要做MSCS的主机上
2、打开ESXI主机的远程技术支持模式(配置-安全配置文件-属性-远程技术支持-属性-启动),当主机启动远程技
术支持后会有黄色惊叹号提示,可以忽略警报。
3、使用Putty工具以Root身份登录到打开远程技术支持的主机上。
4、进入共享磁盘所在的路径。
(例:cd /vmfs/volumes/datastore1)请将datastore1替换成对应的共享VMFS卷名称
5、创建共享磁盘。
(例:vmkfstools -c 10000m -d eagerzeroedthick -a lsilogic /vmfs/volumes/datastore1/data.vmdk)(例:vmkfstools -c 1024m -d eagerzeroedthick -a lsilogic /vmfs/volumes/datastore1/quorum.vmdk)(例:vmkfstools -c 1024m -d eagerzeroedthick -a lsilogic /vmfs/volumes/datastore1/msdtc.vmdk)创建好后如下图所示
一般仲裁盘和MSDTC盘为1G即1024MB,数据盘根据业务大小自由分配。
6、将共享盘挂载给两台虚拟机
虚拟机-编辑设置-添加磁盘-使用现有磁盘
Data盘挂载点1:0
Quorum挂载点1:1
MSDTC挂载点1:2
共享盘挂载注意:
●不要将共享盘和本地盘放在一个磁盘控制器上即0:X
●两台MSCS主机的共享硬盘挂载点要相同
7、打开虚拟机,创建MSCS群集
在ESXI 5中创建linux clust共享磁盘
虚拟机环境下使用共享磁盘的作用就不多说了,以前已经多次介绍过在虚拟机环境中构建HA、Oracle RAC环境,都需要使用之。而在ESXi 4 环境下,Infrastructure Client工具似乎没有提供创建共享磁盘简便方法,但可以使用命令来创建。
一、前提
由于图形管理工具下没有提供创建共享盘柜的方法,所以,要从命令创建磁盘,就必须先打开可以进入命令行。进入命令行有两种办法:
1、从Infrastructure Client上选择进入维护模式,然后即可登陆;
2、使用远程ssh登陆。
二、创建共享磁盘
1、创建磁盘文件
使用pietty等ssh工具,登陆到ESXi 服务器上,使用下面的命令创建虚拟客户机使用的共享磁盘文件:
# cd /vmfs/volumes/49f5c866-a25fe688-2bff-003048c37402/
# mkdir sharedisk
# cd sharedisk
# vmkfstools -c 10240m -a lsilogic -d eagerzeroedthick sharedisk.vmdk
这样就创建了一个10G大小的共享磁盘文件。
2、加入到虚拟机中
使用Infrastructure Client,选择对应的虚拟客户机,编辑客户机属性,添加硬盘,选择“使用现有虚拟磁盘”:
并选择上面创建的磁盘文件:
然后,注意选择SCSI“虚拟设备节点”与原本地磁盘不在同一个通道上。
例如,本地磁盘使用SCSI 0:1,那就可以使用SCSI 1:0等,同选择“模式”为“独立”—“持久”的方式:添加结果如下:
※给参与构建集群的虚拟客户机进行一次相同的操作。
3、修改vmx设置文件
再次使用pietty通过ssh登陆到ESXi 服务器上,修改虚拟机的.vmx配置文件:
# cd Asianux\ 3.0
# vi Asianux\ 3.0.vmx
在最后,根据上面添加的控制器情况,修改或加入:
scsi1.present = "true"
scsi1.sharedBus = "virtual"
scsi1.virtualDev = "lsilogic"
scsi1:0.mode = "independent-persistent"
scsi1:0.deviceType = "scsi-hardDisk"
sched.scsi1:0.shares = "normal"
disk.locking="false"
diskLib.dataCacheMaxSize = "0"
diskLib.dataCacheMaxReadAheadSize = "0"
diskLib.DataCacheMinReadAheadSize = "0"
diskLib.dataCachePageSize = "4096"
diskLib.maxUnsyncedWrites = "0"
※给参与构建集群的虚拟客户机进行一次相同的操作。
最后,启动相关的虚拟客户机,并对新增加的磁盘创建分区,或使用OCFS2、GFS等工作。