linux集群
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
RHCS集群配置
需要用到的各组件功能:
RHCS(Red Hat Cluster Suite):能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合。
LUCI:是一个基于web的集群配置方式,通过luci可以轻松的搭建一个功能强大的集群系统。
CLVM:Cluster逻辑卷管理,是LVM的扩展,这种扩展允许cluster中的机器使用LVM来管理共享存储。
CMAN:分布式集群管理器。
GFS(Google File System):以本地文件系统的形式出现。多个Linux机器通过网络共享存储设备,每一台机器都可以将网络共享磁盘看作是本地磁盘,如果某台机器对某个文件执行了写操作,则后来访问此文件的机器就会读到写以后的结果。
实验需求:
集群管理/ISCSI共享存储主机IP:192.168.0.40主机名: 集群节点一IP:192.168.0.41主机名:
集群节点二IP:192.168.0.42主机名:
一、【准备工作】
1、修改管理主机和每个节点的hosts文件,保证三台服务器的hosts文件一样。
注:主机名最好使用域名形式,因为之前只用了gfs1这样的主机名,到后来,配置都顺利结束,但重启节点后,发现共享存储挂不上,看到是clvmd启动超时,估计是主机名的原因,解析不到?有待斟酌。
2、两台节点上分别关闭selinux、iptables和NetworkManager
注:两台节点上都得操作,操作完后reboot重启两台节点,使配置生效
二、【群集管理主机设置】
1、安装并启用luci集群管理
这时,你就可以用https://:8084(或https://192.168.0.40:8084)登陆集群web管理界面了,以root登陆即可
三、【各节点配置】
1、在两台节点分别yum安装ricci、rgmanager、cman
启动cman如出现错误:
Starting cman... xmlconfig cannot find /etc/cluster/cluster.conf [FAILED]
是因为节点还没有加入集群,没有产生配置文件/etc/cluster/cluster.conf
2、在两台节点上给ricci用户设置与root相同的密码
四、【集群web管理界面配置】
1、浏览器打开https://192.168.0.40:8084 输入root和root密码进行登陆
2、添加集群
点击Manager Clusters---> Create 创建一个集群,如下图,输入集群名称,添加每个节点的主机名、密码,勾选Download Packages、Reboot Nodes Before Jo ining Cluster、Enable Shared Storage Support,最后点击Create Cluster创建集群,耐心等待,创建过程中两台节点会重启...
创建成功后显示如下:
在到任意一个节点上去查看集群状态,都是Online,说明集群配置成功。
二、iscsi安装与配置
1.安装target
1 [root@target ~]# yum install -y scsi-target-utils
2.配置target
12345678910111213 [root@target ~]# vim /etc/tgt/targets.conf
#
# direct-store /dev/sdd
# incomingusersomeuser secretpass12
#
vendor_id test #配置发行商(任意)
lun 6 #配置LUN号
incominguseriscsiuseriscsiuser #配置认证的用户名和密码
initiator-address 192.168.18.0/24 #配置允许的网段
3.启动target并设置为开机自启动
1234 [root@target ~]# service tgtd start
[root@target ~]# chkconfigtgtd on
[root@target ~]# chkconfigtgtd --list
tgtd 0:关闭1:关闭2:启用3:启用4:启用5:启用6:关闭
4.查看配置的target
1234567891011121314151617181920212223 [root@target ~]# tgtadm --lldiscsi --mode target --op show
Target 1: .test:teststore.sdb
System information:
Driver: iscsi
State: ready
I_T nexus information:
LUN information:
LUN: 0
Type: controller
SCSI ID: IET 00010000
SCSI SN: beaf10
Size: 0 MB, Block size: 1
Online: Yes
Removable media: No
Prevent removal: No
Readonly: No
Backing store type: null
Backing store path: None
Backing store flags:
Account information:
iscsiuser
ACL information:
192.168.18.0/24
5.在各节点上安装initiator
1 [root@target ~]# ha sshnode$I 'yum install -y initiator'; done
6.配置initiator
node1:
1234567 [root@node1 ~]# vim /etc/iscsi/initiatorname.iscsi InitiatorName=.test:node1
[root@node1 ~]# vim /etc/iscsi/iscsid.conf
#修改下面三项
node.session.auth.authmethod = CHAP #开启CHAP认证ername = iscsiuser #配置认证用户名node.session.auth.password = iscsiuser #配置认证密码
node2:
1234567 [root@node2 ~]# vim /etc/iscsi/initiatorname.iscsi InitiatorName=.test:node2
[root@node2~]# vim /etc/iscsi/iscsid.conf
#修改下面三项
node.session.auth.authmethod = CHAP #开启CHAP认证ername = iscsiuser #配置认证用户名node.session.auth.password = iscsiuser #配置认证密码