红帽集群套件RHCS实战篇

合集下载

RHCS双机软件安装及配置

RHCS双机软件安装及配置

使用红帽群集软件实现应用服务双机安装配置操作系统版本:redhat linux AS 4U5群集软件版本:redhat cluster suite 4.5一、群集实施前期系统配置1.编辑/etc/hosts文件,加入IP地址和主机对应表,修改后的hosts示范如下: [root@app1 /]# cat /etc/hosts# Do not remove the following line, or various programs# that require network functionality will fail.127.0.0.1 localhost.localdomain localhost125.88.105.82 app1125.88.105.83 app2192.168.10.7 app1-priv192.168.10.8 app2-priv2.HP ILO卡配置(每个节点都执行)注:此次只是为ilo卡配指定的ip及新增一个管理用户开机自检时,按F8键进入iLO的设置界面:1.进入iLO的设置:这项是将所有的设置恢复为出厂值。

2.配置网络:分别设置IP 地址和DNS。

IP应在同一个网段中,注意子网掩码的一致。

(只有在DHCP被设为Disable时,才能设置IP address/Subnet Mask/Gateway IP address)DNS的名字在服务器前面带的卡片上,还包括管理员的账号和密码。

IP必须是静态的,所以DHCP需设置为OFF。

3.在这里可以添加、删除、更改远程访问User的密码,权限等。

Add userRemoveEdit4.Settings 的选项设置Keyboard的属性等,一般都为默认值。

5.About中为iLO的firmware version等一些信息。

3.建文件系统挂载点/data(每节点运行)[root@app1 root]# mkdir /data二、安装群集软件(每个节点运行)在AS4上配置红帽群集管理器需要安装cluster suite 4。

rhce培训内容

rhce培训内容

红帽认证工程师(RHCE)培训的主要内容包括红帽系统管理一、红帽系统管理二、红帽系统管理三等三部分。

红帽系统管理一包括建立网络、确保网络服务的安全、管理和保证文件的安全等内容。

红帽系统管理二涉及网络配置与故障排除、管理文件系统和逻辑卷、控制用户和文件访问等。

红帽系统管理三则强调增强用户安全、利用iSCSI进行磁盘管理、系统与网络活动监控等。

此外,培训还会涵盖基本工具的使用,如Shell的使用和语法规则学习,使用重定向,使用grep,ssh和vnc用户的切换,文件的压缩和解压缩,使用tar、gzip 等工具进行文件的归档,创建和编辑文本文件,文件的创建、移动、复制、删除等,以及了解软连接、硬链接设置文件及目录的权限根据条件查找文件。

还包括对操作系统开机、重启、关闭的操作,手动进入不同的系统启动target,在系统启动过程中修改系统管理员的密码,进行作业调度,并学习查看、设置进程的优先级管理进程,学会使用kill对进程发送信号,管理linux的日志,管理虚拟机,网络服务设置及多操作系统的安全文件传输等。

以上内容仅供参考,建议咨询专业人士获取更准确的信息。

集群文件系统之GFS2

集群文件系统之GFS2

集群⽂件系统之GFS2⼀、⽂件系统分类 1.集群⽂件系统 GFS2 OCFS2 2.分布式⽂件系统(有分布式⽂件锁。

) GFS(Goole) :适⽤海量⼤⽂件 HDFS(Hadoop) :适⽤海量⼤⽂件 MogileFS :适⽤海量⼩⽂件⼆、RHCS(Redhat Hat Cluster Suite)红帽集群套件 注:需要适⽤GFS2则需要先安装RHCS 1.RHCS概念: RHCS是⼀个功能完备的集群应⽤解决⽅案,它从应⽤的前端访问到数据后端的数据数据存储都提供了⼀个⾏之有效的集群架构实现,通过RHCS提供的这种解决⽅案,不但能保证前端应⽤持久,稳定的提供服务,同时也保证了后端数据存储的安全。

RHCS提供了集群系统中三种集群架构,分别是⾼可⽤性集群,负载均衡集群,存储集群 2.RHCS核⼼功能特点: ⾼可⽤集群 LVS GFS⽂件系统三、部署RHCS的⽅法 1.conga部署(luci+ricci) 控制节点:luci 集群节点:ricci 注意:在安装RHCS的时候要禁⽤epel源 2.⼿动部署四、conga部署RHCS 1.需要四台linux机器。

⼀台控制节点。

三台集群节点。

控制节点安装ansible、并且主机名、双机互信配置完毕。

2.集群节点通过ansible安装ricci (注意这⾥要⽤本机镜像内的源安装,不⽤epel源安装,因为epel版本可能更旧) #ansible webserver -m yum -a "name=ricci state=present disablerepo=epel" 3.主节点安装luci #yum -y install luci --disablerepo=epel 4.验证集群节点ricci服务 netstat -tulp (ricci⽤tcp:1111与upd:111端⼝) 5.启动控制节点服务 service luci start 6.使⽤浏览器登录RHCS管理界⾯(地址在启动服务的时候会显⽰) 7.配置集群节点及资源五、配置GFS2(集群⽂件系统)六、配置CLVM(集群逻辑卷)。

红帽RHCS(Red Hat Cluster Suite)集群维护

红帽RHCS(Red Hat Cluster Suite)集群维护

红帽RHCS(Red Hat Cluster Suite)集群维护1.启动RHCS集群 (1)2.关闭RHCS集群 (1)3.管理应用服务 (2)3.1.启动某个应用服务 (2)3.2.关闭某个应用服务 (2)3.3.重启某个应用服务 (2)3.4.切换某个服务 (3)4.监控RHCS集群状态 (3)1.启动RHCS集群RHCS集群的核心进程有cman和rgmanager,要启动集群,依次在集群的每个节点执行如下命令即可:service cman startservice rgmanager start需要注意的是,执行这两个命令是有先后顺序的,需要首先启动cman,然后再启动rgmanager(在集群所有节点成功启动cman 服务后,然后继续依次在每个节点启动rgmanager服务)。

如果用了GFS2集群文件系统,那么启动的方式为:service cman startservice qdiskd startservice clvmd startservice gfs2 startservice rgmanager start2.关闭RHCS集群与启动集群服务刚好相反,关闭RHCS集群的命令为:service rgmanager stopservice cman stop首先在集群的每个节点依次关闭rgmanager服务,等待所有节点的rgmanager服务成功关闭后,再依次关闭每个节点的cman服务即可完成整个集群服务的关闭。

有时在关闭cman服务时,可能会提示关闭失败,此时可以检查本机的共享存储GFS2文件系统是否已经卸载,还可以检查其它节点的rgmanager服务是否都已经正常关闭。

3.管理应用服务集群系统启动后,默认是自动启动应用服务的,但是如果某个应用服务没有自动启动,就需要通过手工方式来启动。

管理应用服务的命令是clusvcadm,通过这个命令可以启动、关闭、重启、切换集群中的应用服务。

基于RHEL6的RHCS红帽集群套件应用

基于RHEL6的RHCS红帽集群套件应用

毛毛雨:AM 3885999RHCS 基于 RHEL6.0 x86_64(实验教程) 实验说明:所用的RHEL 版本均为 6.0 x86_64,宿主机支持虚拟化,内存不小于4G。

实验拓扑如下:在本实验中,为了节省资源将 ISCSI-Target 也放到 manager 一个机器上了。

vmware 创建一个虚拟机,内存3G,按下图设置使得虚拟机也支持虚拟化,vmware workstation 版本不低于7:蓝狐Linux系统培训中心毛毛雨:AM 3885999毛毛雨:AM 3885999蓝狐Linux 系统培训中心毛毛雨:AM 3885999在这个虚拟机中装好 rhel6,ip192.168.0.200,作为 RHCS 的管理端,继续在其上安装 kvm,kvm 的安装请查看我之前写的关于 kvm 文档,kvm 安装好后,创建两 个 vm(virtual machine) ,桥接到 192.168.0.200 的物理网卡上,vm 上安装好 rhel6,ip 分别为192.168.0.201和 192.168.0.202,作为 RHCS 的节点,这样的拓扑设计 的原因是我们可以在 RHCS 中使用 fence-virsh 来fence 掉 kvm 管理的 RHCS 故障节点。

使用hostname 指令设置主机名,想重启之后生效别忘了/etc/sysconfig/network,因为本环境中没有使用DNS,所以在manager 上设置/etc/hosts 添加如下三行, 再 scp 到 web1 和web2。

[root@manager ~]# vim /etc/hosts 127.0.0.1 localhost.localdomain localhost ::1localhost6.localdomain6 localhost6192.168.0.200 manager 192.168.0.201 web1 192.168.0.202web2manager、web1、web2 均关闭selinux、iptables。

RHCS(Oracle)配置实战图解

RHCS(Oracle)配置实战图解

12.5 I/O屏障技术红帽集群套件(Red Hat Cluster Suite)中要求硬件能支持I/O屏障(Fenceing)技术,这与众多第三方集群方案不同,由于此技术增加了系统架构的复杂性,很多用户不理解为何还要使用此技术。

Fencing主要用于防止集群系统的"脑裂(Brain-Split)",在"脑裂"发生之前,通过硬件信号方式对服务器进行断电或者对光纤链路进行断链来保护客户的重要数据。

红帽集群套件中明确要求建立集群的服务器支持Fence设备,这些设备主要包括:服务器或刀片中心控制设备:1.Bull Fame (PAP) Management Console2.Dell DRAC 3/4/5/MC3.Fujitsu-Siemens RSB4.HP ILO 1/25.IBM Blade Center/RSA II6.Intel IPMI over LAN专用UPS电源交换机:1.APC MasterSwitch AP79XX系列2.WTI IPS系列3.WTI MPC-8H (5.3)4.WTI NBB-1600/1600-CE5.WTI RSM-8R4 (5.3)6.WTI TPS-2SAN光纤控制设备:1.Brocade Silkworm 2400/2800/32002.Dell PowerVault 56F3.McData Sphereon 45004.Vixel 9200通过以上设备可以有效地保证服务器的集群工作,如果没有这些设备,则可以选择使用以下方案。

Fence_scsiFence_scsi基于SAN设备的SCSI-3 Persistent Reservation(SCSI-3 PR)永久保留功能,当前已有部分SAN存储设备支持此功能。

但请注意,此功能不可与multipath一同使用。

虚拟化Fence支持红帽RHEL 5系列的虚拟机之间实现Fencing操作,可实现本地物理服务器间的虚拟机Fencing或跨服务器的虚拟机Fencing,以结合RHCS提供的虚拟机集群方案。

CS5.0红帽集群方案

CS5.0红帽集群方案

RHEL 5.1Red Hat Cluster Solution Suite 5.0简介1.集群方案概述不间断的无故障的业务运行环境是每一个企业IT系统部署要求的重中之重。

任何一个发生在关键服务上的停顿故障都会导致直接和间接的企业经济损失以及客户的满意度下降。

虽然红帽企业版Linux操作系统已经提供高度的容错能力,但是关键业务系统仍旧需要成熟的技术来实现服务的高可用性,尽可能减少和缩短服务停顿的次数和时间。

传统的通过冗余和复制硬件设备的解决方式既昂贵且局限性大,用户只能通过这样的方式解决企业中最关键的业务应用对于可用性的要求。

因此很多企业内部的重要应用由于缺乏高性价比的方案而失去保护,面临着灾难后的长时间恢复和数据的丢失。

同样的情况下,当企业的IT部门需要对关键应用所处软硬件环境进行调整,或仅仅是作系统维护的时候,这种计划内的停机也会造成应用重新上线前的长时间服务停止以及潜在的数据丢失。

红帽的企业集群解决方案(RHCS)是全球领先的高可用性解决方案,专为红帽企业Linux量身定做,是全球企业Linux厂商中唯一提供原生集群解决方案的厂商。

RHCS集群经过红帽公司全球研发团队以及广大开发者社区的多年打造,已经成为企业级Linux平台上顶尖的高可用解决方案。

红帽RHCS集群采用了业界成熟的技术和主流国际标准,遵循高度安全和可靠的苛刻要求,被广泛的部署在电信,金融,政府,军队,制造,医疗,商贸,教育等各行业。

通过长年于主流硬件制造商及软件制造商的研发协作与合作,红帽RHCS 集群已经在几乎所有主流硬件平台上运行,并且高度支持主流的数据库及中间件应用,针对绝大多数网站/网络所必须的应用服务也提供了完整的支持。

红帽RHCS集群方案已经预置了对主要网络和数据库服务的支持,用户可通过红帽全球专家服务(Global Professional Service)完成对特殊服务和应用的集群定制部署。

2.红帽RHCS集群解决方案主要特点标准支持双机热备工作模式,也可配置四节点甚至更多节点服务器组成高可用集群最多支持128个服务器节点。

红帽集群套件RHCS四部曲(测试篇)

红帽集群套件RHCS四部曲(测试篇)

红帽集群套件RHCS四部曲(测试篇)集群配置完成后,如何知道集群已经配置成功了呢,下面我们就分情况测试RHCS提供的高可用集群和存储集群功能。

一、高可用集群测试在前面的文章中,我们配置了四个节点的集群系统,每个节点的主机名分别是web1、web2、Mysql1、Mysql2,四个节点之间的关系是:web1和web2组成web集群,运行webserver服务,其中web1是主节点,正常状态下服务运行在此节点,web2是备用节点;Mysql1和Mysql2组成Mysql集群,运行mysqlserver服务,其中,Mysql1是主节点,正常状态下服务运行在此节点,Mysql2为备用节点。

下面分四种情况介绍当节点发生宕机时,集群是如何进行切换和工作的。

1 节点web2宕机时宕机分为正常关机和异常宕机两种情况,下面分别说明。

(1)节点web2正常关机在节点web2上执行正常关机命令:[root@web2 ~]#init 0然后在web1节点查看/var/log/messages日志,输出信息如下:Aug 24 00:57:09 web1 clurgmgrd[3321]: <notice> Member 1 shutting downAug 24 00:57:17 web1 qdiskd[2778]: <info> Node 1 shutdownAug 24 00:57:29 web1 openais[2755]: [TOTEM] The token was lost in the OPERATIONAL state. Aug 24 00:57:29 web1 openais[2755]: [TOTEM] Receive multicast socket recv buffer size (320000 bytes).Aug 24 00:57:29 web1 openais[2755]: [TOTEM] Transmit multicast socket send buffer size (219136 bytes).Aug 24 00:57:29 web1 openais[2755]: [TOTEM] entering GATHER state from 2.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering GATHER state from 0.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Creating commit token because I am the rep.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Saving state aru 73 high seq received 73Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Storing new sequence id for ring bc8Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering COMMIT state.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering RECOVERY state.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] position [0] member 192.168.12.230:Aug 24 00:57:49 web1 openais[2755]: [TOTEM] previous ring seq 3012 rep 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [TOTEM] aru 73 high delivered 73 received flag 1Aug 24 00:57:49 web1 openais[2755]: [TOTEM] position [1] member 192.168.12.231:Aug 24 00:57:49 web1 openais[2755]: [TOTEM] previous ring seq 3012 rep 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [TOTEM] aru 73 high delivered 73 received flag 1Aug 24 00:57:49 web1 openais[2755]: [TOTEM] position [2] member 192.168.12.232:Aug 24 00:57:49 web1 openais[2755]: [TOTEM] previous ring seq 3012 rep 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [TOTEM] aru 73 high delivered 73 received flag 1Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Did not need to originate any messages in recovery. Aug 24 00:57:49 web1 openais[2755]: [TOTEM] Sending initial ORF tokenAug 24 00:57:49 web1 openais[2755]: [CLM ] CLM CONFIGURATION CHANGEAug 24 00:57:49 web1 openais[2755]: [CLM ] New Configuration:Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.230)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.231)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.232)Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Left:Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.240)Aug 24 00:57:49 web1 kernel: dlm: closing connection to node 1Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Joined:Aug 24 00:57:49 web1 openais[2755]: [CLM ] CLM CONFIGURATION CHANGEAug 24 00:57:49 web1 openais[2755]: [CLM ] New Configuration:Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.230)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.231)Aug 24 00:57:49 web1 openais[2755]: [CLM ] r(0) ip(192.168.12.232)Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Left:Aug 24 00:57:49 web1 openais[2755]: [CLM ] Members Joined:Aug 24 00:57:49 web1 openais[2755]: [SYNC ] This node is within the primary component and will provide service.Aug 24 00:57:49 web1 openais[2755]: [TOTEM] entering OPERATIONAL state.Aug 24 00:57:49 web1 openais[2755]: [CLM ] got nodejoin message 192.168.12.230Aug 24 00:57:49 web1 openais[2755]: [CLM ] got nodejoin message 192.168.12.231Aug 24 00:57:49 web1 openais[2755]: [CLM ] got nodejoin message 192.168.12.232Aug 24 00:57:49 web1 openais[2755]: [CPG ] got joinlist message from node 3Aug 24 00:57:49 web1 openais[2755]: [CPG ] got joinlist message from node 4Aug 24 00:57:49 web1 openais[2755]: [CPG ] got joinlist message from node 2从输出日志可以看出,当web2节点正常关机后,qdiskd进程立刻检测到web2节点已经关闭,然后dlm锁进程正常关闭了从web2的连接,由于是正常关闭节点web2,所以RHCS认为整个集群系统没有发生异常,仅仅把节点web2从集群中隔离而已。

杨哥Linux红帽RHCE_RHCSA认证考试超细精讲+真实考题视频课程课件PPT模板

杨哥Linux红帽RHCE_RHCSA认证考试超细精讲+真实考题视频课程课件PPT模板

cron及阶段自测
4
1-11第八题:文件基本
5
权限及特殊权限
1-12第九题:kernel升级
及注意事项
6
第1章rhcsa认证超细精讲+rhcsa真实考题
1-14第十一题:ntp客户端配置 及查看
1-16第十三题:用户创建及指定 选项
1-18第十五题:find查找指定 文件
1-13第十题:集中式身份验证 ldap客户端配置
1-15第十二题:autofs自动挂 载ldap用户家目录
1-17第十四题:创建交换分区 swap
第1章rhcsa认证超细 精讲+rhcsa真实考题
1-19第十六题:grep查找文件 内容
1-20第十七题:文件压缩bzip2
感谢聆听
杨哥linux红帽rhce/rhcsa认
证考试超细精讲+真实考题视频


演讲人
2 0 2 x - 11 - 11
01
第1章rhcsa认证超细精 讲+rhcsa真实考题
第1章rhcsa认证超细精讲+rhcsa真实考题
1-1杨哥介绍rhce认证考
1

1-2Rhcsa模拟环境详解
Байду номын сангаас
及注意事项
2
1-3一题:root密码破解
3
多面解析
1-4一题:文本和图形方
法配置ip地址
4
1-5第二题:selinux配置
5
及注意事项
1-6第三题:yum配置及
脚本阶段自测
6
第1章rhcsa认证超细精讲+rhcsa真实考题
1-7第四题:lvm及文件
1

红帽RHCSA和RHCE Red Hat Linux认证学习指南

红帽RHCSA和RHCE Red Hat Linux认证学习指南

大家都知道红帽认证,分为这三个等级,分别是RHCSA、RHCE和RHCA,其中RHCA的难度较大,光考试就要考五科呢,堪比当年的“中考”,咦,紧张兮兮。

这篇文章就主要讲一下RHCSA和RHCE,对于运维工程师从业者而言,基本就已经够用了,但是,话说回来,学无止境,证书是一方面,核心要素还是要不断提高自身的技术硬实力呀。

希望这篇关于Linux红帽认证的避雷指南,能够对众多志同道合的盆友们有一些帮助和收获。

那么就开始吧,这里面包含了认证官方的介绍,考证的吃穿住行和具体流程。

通过学员的感受分享等。

[MISSING IMAGE: , ]1.什么是RHCSA?什么是RHCE?RHCSA是Red Hat Certified System Administrator的简称,属于红帽linux的初级入门认证。

RHCE是Red Hat Certified Engineer的简称,属于红帽linux的中级认证,是全球认可的具有高含金量的linux领域专业证书,是Redhat公司推出的仅次于RHCA(红帽认证架构师)的高级认证证书。

注意,要想获得RHCE证书,必须要先通过RHCSA考试。

首先先来说下RHCSA和RHCE考试流程以及需要了解的地方:RHCE考试的官方费用是4200元人民币,其中包含了RHCSA(红帽系统管理员)的考试,如果第一次没有考过,那么有一次补考的机会,补考只需要交2000元人民币。

但是只有一次补考机会。

注意:红帽的认证考试是不支持个人报名的,只支持团体报名(培训机构)然后,再来说下RHCSA和RHCE的考试:考试分为2个部分,RHCSA(上午考)+RHCE (下午考)。

其中RHCSA是相对基础的系统管理员的考试,考试时间一般在上午,时间为2.5小时,内容大概是一些基本的系统操作应用,一般来说不是很难,但是很考验细心程度。

RHCE的考试是大量的服务搭建以及服务的应用,考试时间一般为下午,时间为3.5小时,相对来说难度比较大。

ESXi搭建与配置红帽RHCS套件_超详细

ESXi搭建与配置红帽RHCS套件_超详细

简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。

这些单个的计算机系统就是集群的节点(node)。

一个理想的集群是,用户从来不会意识到集群系统底层的节点,在他/她们看来,集群是一个系统,而非多个计算机系统。

并且集群系统的管理员可以随意增加和删改集群系统的节点。

通过特殊的软件将若干服务器连接在一起并提供故障切换功能的实体我们称之为高可用集群。

可用性是指系统的uptime,在7x24x365的工作环境中,99%的可用性指在一年中可以有87小时36分钟的DOWN机时间,通常在关键服务中这种一天多的故障时间是无法接受的,所以提出了前面提到的错误恢复概念,以满足99.999%的高可用性需求。

这里我们先说一下几个概念:1、服务(Service),是HA集群中提供的资源,包括Float IP,共享的存储,apache等等。

2、成员服务器(Member Server)也叫节点(Node),是HA中实际运行服务提供资源的服务器。

3、失效域(Failover Domain),是HA中提供资源的服务器的集合,当内部某个成员出现故障时,可以将服务切换到其他正常的成员服务器上。

在HA中一个失效域一般包含2台成员服务器(未应用虚拟技术)。

4、心跳(HeartBeat)是HA中监控成员服务器状态的方法,一般心跳是通过网线和串口线来传输的。

5、单一故障点(Single Point Of Failuer,SPOF)是指一个系统的这样的一个部件,当它失效或者停止运行,将导致整个系统不能工作。

在HA中通常使用双电源,多网卡,双交换机等来避免SPOF。

6、仲裁(Quorum)是HA中为了准确的判断服务器及其提供的服务是否正常而采用的在共享磁盘中保存成员服务器信息的方法。

共享的状态信息包括群集是否活跃。

服务状态信息包括服务是否在运行以及哪个成员正在运行该服务。

每个成员都检查这些信息来保证其它成员处于最新状态。

[全]红帽RHCSA认证考试试题及操作实践

[全]红帽RHCSA认证考试试题及操作实践

红帽RHCSA认证考试试题及操作实践实验Server0设备环境配置基础信息,请首先按照以下要求配置考试系统:* Hostname: * IP address: 172.25.0.11* Netmask: 255.255.255.0* Gateway: 172.25.0.254* Name server: 172.25.254.254* 所有配置要求系统重启后依然生效。

注:如需配套的实验环境,请关注后私信“RHCE实验环境”。

1、修改root密码试题要求:请修改系统的root帐号密码为redhat,确保能够使用root帐号能够登陆系统。

解答:修改root密码(1)开机菜单界面,选第一项,按e进入维护模式;(2)在linux16行,行尾添加rd.break console=tty0;然后按ctrl+x 重新启动系统;(3)重启后,在命令行执行如下命令:Switch_root:/# mount -o remount,rw /sysrootSwitch_root:/# chroot /sysrootSh-4.2# passwd输入新密码(两次保持一致)Sh-4.2# touch /.autorelabelSh-4.2# exitSwitch_root:/# exit之后系统进入重启状态,需要几分钟时间,成功设置后进入登陆界面,输入用户名和密码即可(root/redhat)。

(4)修改主机名:hostnamectl set-hostname (5)配置IP地址方法一:Serveer0上使用图形化界面方法(nmtui)IP配置以后,就可以使用SSH登陆了!nmtui配置图nmtui配置图及验证配置成功后就可以使用SSH远程登陆:[root@foundation0 ~]# ssh root@server0 -Xroot@server0's password:Last login: Sun Mar 15 14:48:14 2020方法二:nmcli配置nmcli配置方法方法三:server0上配置临时IP,然后通过SSH修改配置2、设定SeLinux试题要求:请按下列要求设定系统:SeLinux的工作模式为enforcing,要求系统重启后依然生效。

RHEL 6.4 RHCS+DB29.7配置手册

RHEL 6.4 RHCS+DB29.7配置手册

RHEL 6.4 RHCS+DB29.7配置手册一、系统概念什么是RHCS:RHCS是Red Hat Cluster Suite的缩写,也就是红帽子集群套件,RHCS是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合,它将集群系统中三大集群架构融合一体,可以给web应用、数据库应用等提供安全、稳定的运行环境。

更确切的说,RHCS是一个功能完备的集群应用解决方案,它从应用的前端访问到后端的数据存储都提供了一个行之有效的集群架构实现,通过RHCS提供的这种解决方案,不但能保证前端应用持久、稳定的提供服务,同时也保证了后端数据存储的安全。

RHCS提供了集群系统中三种集群构架,分别是高可用性集群、负载均衡集群、存储集群。

RHCS提供的三个核心功能:高可用集群是RHCS的核心功能。

当应用程序出现故障,或者系统硬件、网络出现故障时,应用可以通过RHCS提供的高可用性服务管理组件自动、快速从一个节点切换到另一个节点,节点故障转移功能对客户端来说是透明的,从而保证应用持续、不间断的对外提供服务,这就是RHCS高可用集群实现的功能。

RHCS通过LVS(Linux Virtual Server)来提供负载均衡集群,而LVS是一个开源的、功能强大的基于IP的负载均衡技术,LVS由负载调度器和服务访问节点组成,通过LVS的负载调度功能,可以将客户端请求平均的分配到各个服务节点,同时,还可以定义多种负载分配策略,当一个请求进来时,集群系统根据调度算法来判断应该将请求分配到哪个服务节点,然后,由分配到的节点响应客户端请求,同时,LVS还提供了服务节点故障转移功能,也就是当某个服务节点不能提供服务时,LVS会自动屏蔽这个故障节点,接着将失败节点从集群中剔除,同时将新来此节点的请求平滑的转移到其它正常节点上来;而当此故障节点恢复正常后,LVS又会自动将此节点加入到集群中去。

而这一系列切换动作,对用户来说,都是透明的,通过故障转移功能,保证了服务的不间断、稳定运行。

RedHatLinux 集群配置 RHCS

RedHatLinux  集群配置 RHCS

hp-dl580G7 RHCS安装步骤一.安装RedHat-AS-5.7-64(两台)二.配置心跳地址与ilo3地址server1心跳地址:192.168.1.1 255.255.255.0 192.168.1.254(网关)server1 ilo3地址192.168.1.10 255.255.255.0 192.168.1.254(网关)server2 心跳地址:192.168.1.2 255.255.255.0 192.168.1.254(网关)server2 ilo3地址192.168.1.11 255.255.255.0 192.168.1.254(网关)三.配置两台主机host文件#vi /etc/host加入两台的心跳地址与ilo地址以及主机名称例如:server1 192.168.1.1页脚内容1server2 192.168.1.2ilo3-1 192.168.1.10ilo3-2 192.168.1.11四.配置共享存储a)从存储分配所需共享磁盘给两台机器(两台机器共享一个磁盘)b)存储若是多路径,两台机器分别安装multipath软件(HP官网下载)c)HP multipath软件只支持5.5以下版本,需要修改/etc/redhat-release文件,把版本改为5.5以下即可,等软件安装好后,再改回来d)创建pvpvcreate /dev/mapper/mpath(n)e)创建vgvgcreate vg01 /dev/mapper/mpath(n)f)创建lvlvcreate –l 10240 –n lv01 vg01g)格式化lv(若是裸设备的话,跳过)mkfs.ext3 /dev/vg01/lv01h)两台机器创建存储挂载点页脚内容2mkdir sybase五.yum安装RHCS所需的安装包yum cman六.rpm安装RHCS所需的依赖的包安装cman(光盘的Server目录下)rpm -ivh perl-XML-NamespaceSupport-1.09-1.2.1.noarch.rpm rpm -ivh perl-XML-SAX-0.14-8.noarch.rpmrpm -ivh perl-XML-LibXML-Common-0.13-8.2.2.x86_64.rpmrpm -ivh perl-XML-LibXML-1.58-6.x86_64.rpmrpm -ivh perl-Net-Telnet-3.03-5.noarch.rpmrpm -ivh pexpect-2.3-3.el5.noarch.rpmrpm -ivh openais-0.80.6-30.el5.x86_64.rpmrpm -ivh python-pycurl-7.15.5.1-8.el5.x86_64.rpm rpm -ivh python-suds-0.4.1-2.el5.noarch.rpmrpm -ivh cman-2.0.115-85.el5.x86_64.rpm安装rgmanger(Cluster目录下)rpm -ivh rgmanager-2.0.52-21.el5.x86_64.rpm安装system-config-cluster(Cluster目录下)rpm -ivh system-config-cluster-1.0.57-9.noarch.rpm页脚内容3安装ricci(光盘的Server目录下)rpm -ivh oddjob-0.27-11.el5.x86_64.rpm oddjob-libs-0.27.11.el5.x86_64.rpm(需要同时安装,要不然装不想上)(Cluster目录下)rpm -ivh modcluster-0.12.1-2.el5.x86_64.rpmrpm -ivh ricci-0.12.2-32.el5.x86_64.rpm安装luci(光盘的Server目录下)rpm -ivh tix-8.4.0-11.fc6.x86_64.rpmrpm -ivh tkinter-2.4.3-44.el5.x86_64.rpmrpm -ivh python-imaging-1.1.5-7.el5.x86_64.rpm(Cluster目录下)rpm -ivh luci-0.12.2-32.el5.x86_64.rpm七.安装HPSUM(psp)安装方法省略八.配置IPMIa)检测是否安装页脚内容4b)rpm –qa |grep IPMI若是没安装,加载安装光盘安装(安装好HPSUM后,会更新IPMI)c)配置ipmi自启动d)chkconfig --level 2345 ipmi onservice ipmi starte)IPMI检测ipmitool -v -H 192.168.1.10 -I lanplus -U admin mc info(ip地址为对方的地址,都互相检测下)九.配置集群system-config-cluster注:先配置集群信息才能启动集群服务(/etc/cluster/cluster.conf)页脚内容5a)选择Create New Configurationb)页脚内容6选择合适的集群名称点击okc)点击Add a Cluster Node,添加节点页脚内容7d)输入集群节点名称,点击OK若有多个节点,依次增加页脚内容8e)点击Add a Fence Device添加Fence设备页脚内容9f)点击OK继续,若有多个Fence设备,依次添加(名字不能与主机相同)页脚内容10页脚内容11g)点击Manage Fencing For This Node实现节点与fence绑定点击cluster nodes-----选择server1----选择“Manager Fenceing for This node”---选择“add a new fence level”----选择“Fence-Lenvel-1”----选择“Add a New Fence to this level”“server1-ipm”页脚内容12h)页脚内容13选中上图中Use lanplus注:每个节点加入自己的Fence设备依次绑定server2的Fence设备页脚内容14i)点击Create a Failover Domain 配置失效切换域页脚内容15输入好名称,点击OK继续点击Available Cluster Nodes选中两个节点页脚内容16Restrict Failover To This Domains Members:指派给这个Failover Domain 的Service 只可以在当前加入的成员上执行;如果不选此项,Service 将允许在本集群中的任何节点进行Failover 切换。

RHCE实践实验环境搭建与配置方法

RHCE实践实验环境搭建与配置方法

RHCE实践实验环境搭建与配置方法为了顺利通过RHCE考试,其中一个重要的步骤是搭建和配置实践实验环境。

这样可以使你更好地了解和掌握相关的技能和知识。

本文将详细介绍RHCE实践实验环境的搭建与配置方法,帮助你顺利进行实践并取得优异的成绩。

一、准备工作在开始搭建实践实验环境之前,你需要做一些准备工作。

首先,确保你已经具备了一定的Linux操作系统基础知识。

其次,准备一台支持虚拟化技术的计算机,并安装一台稳定的Linux发行版,如CentOS。

此外,你还需要下载和安装VirtualBox或VMware等虚拟化软件。

二、选择适合的操作系统版本RHCE考试的要求是在指定的Linux版本上进行实践。

当前,RHCE实践实验使用的是最新版本的Red Hat Enterprise Linux,建议你选择最新的稳定版本进行搭建和配置。

在搭建实验环境之前,确保你已经下载了指定版本的操作系统镜像文件。

三、创建虚拟机使用虚拟化软件,你可以创建多个虚拟机来模拟不同的实践场景。

打开虚拟化软件,在菜单中选择"新建虚拟机",根据向导提示设置虚拟机的名称、硬件配置和存储等参数。

在创建虚拟机时,确保为每个虚拟机分配足够的内存和硬盘空间,以满足实践的需求。

四、安装操作系统创建完虚拟机后,你需要为虚拟机安装操作系统。

在虚拟机启动之前,为虚拟机指定安装介质,这可以是光盘镜像文件或者操作系统的ISO镜像文件。

启动虚拟机后,按照安装向导的提示进行操作系统的安装。

在安装过程中,确保按照RHCE考试的要求进行分区和网络设置。

五、配置网络在完成操作系统的安装后,你需要配置虚拟机的网络。

RHCE考试要求你熟悉网络配置和管理,因此在实践实验环境中,你需要设置合适的网络环境以满足实验的需求。

根据实验场景的要求,可以配置虚拟机的IP地址、网关、DNS等网络参数。

六、安装和配置RHCE实践所需的软件RHCE考试涵盖了众多的主题和技术,你需要安装和配置相关的软件来满足实践的需求。

RHCS红帽集群套件分析

RHCS红帽集群套件分析

RHCS红帽集群套件一、概述•RedHat Cluster Suite即红帽集群套件•能够提供高可用性、高可靠性、负载均衡、存储共享且经济实用•可以为Web应用、数据库应用等提供安全、稳定的运行环境•RHCS提供了从前端负载均衡到后端数据存储的完整解决方案,是企业级应用的首选二、RHCS的功能•高可用–核心功能–系统硬件或网络出现故障时,应用可以自动、快速地从一个节点切换到另一个节点•负载均衡–通过LVS提供负载均衡–LVS将负载通过负载分配策略,将来自于客户端的请求分配到服务器节点–当某个服务节点无法提供服务,节点将被从集群中剔除•存储集群功能–RHCS通过GFS文件系统提供存储集群功能–GFS即Global File System,允许多个服务同时读写一个单一的共享文件系统–通过GFS消除在应用程序间同步数据的麻烦–通过锁管理机制来协调和管理多个服务节点对同一个文件系统的读写操作三、RHCS组成•集群架构管理器–RHCS的基础,提供集群基本功能–包括CMAN、成员关系管理、DLM、CCS和FENCE等•高可用服务管理器–提供节点服务监控和服务故障转移功能•集群配置管理工具–System-config-cluster–luci,最新版本默认的Web管理工具•LVS•GFS–红帽公司开发,最新版本是GFS2–GFS不能孤立存在,需要RHCS底层组支持•CLVM–集群逻辑卷管理–是LVM的扩展,允许集群中的机器使用LVM来管理共享存储•iSCSI–即internet SCSI,是IETF制订的标准–将SCSI数据块映射为以太网数据包–是基于IP Storage理论的新型存储技术•GNBD–全局网络模块–是GFS的一个补充组件,用于RHCS分配和管理共享存储四、RHCS运行原理•RHCS由多个部分组成,熟练应用RHCS集群需要了解各个组件的原理、功能•分布式集群管理器CMAN–运行在全部节点上,提供集群管理任务–用于管理集群成员、消息和通知。

红帽认证课程培训大纲

红帽认证课程培训大纲

红帽认证培训RHCSA认证培训
RHCE认证培训
RHCA认证培训
RHCVA认证培训
RHCE认证培训
第一部分:RHCSA认证培训内容
第二部分:RHCE认证培训内容
第三部分(可选):
RHCA认证培训
RHCVA认证培训
RHCVA课程内容
RH318红帽企业虚拟化
•红帽企业虚拟化平台概述
•安装与管理红帽企业虚拟化系统管理程序节点
•安装、使用与维护基于Web的红帽企业虚拟化服务器管理控制台
•创建与管理虚拟镜像和存储客户机镜像和快照的NFS或iSCSI存储池
•部署、管理和支持红帽企业虚拟化,包括VDSM、日志收集器以及升级系统•深入探讨高级虚拟化能力
•开放实验室环境。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、安装环境介绍这个实例要介绍的是web+mysql集群的构建,整个RHCS集群共有四台服务器组成,分别由两台主机搭建web集群,两台主机搭建mysql集群,在这种集群构架下,任何一台web服务器故障,都有另一台web服务器进行服务接管,同时,任何一台mysql服务器故障,也有另一台mysql服务器去接管服务,保证了整个应用系统服务的不间断运行。

如下图所示:二、安装前准备工作Centos是RHEL的克隆版本,并且RHCS所有功能组件都免费提供,因此下面的讲述以Centos 为准。

操作系统:统一采用Centos5.3版本。

为了方便安装RHCS套件,在安装操作系统时,建议选择如下这些安装包:λ桌面环境:xwindows system、GNOME desktop environment。

λ开发工具:development tools、x software development、gnome software development、kde software development。

地址规划如下:iSCSI-target的安装与使用已经在前面文章中做过介绍,不再讲述,这里假定共享的磁盘是/dev/sdb。

三、安装LuciLuci是RHCS基于web的集群配置管理工具,可以从系统光盘找到对应的Luci安装包,安装如下:[root@storgae-server ~]#rpm -ivh luci-0.12.2-12.el5.centos.1.i386.rpm安装完成,执行luci初始化操作:文本预览:[root@storgae-server ~]#luci_admin init Initializing the Luci server Creating the 'admin' user Enter password: Confirm password: Please wait... The admin password has been successfully set. Generating SSL certificates... Luci server has been successfully initialized输入两次密码后,就创建了一个默认登录luci的用户admin。

最后,启动luci服务即可:[root@storgae-server ~]# /etc/init.d/luci start为了能让luci访问集群其它节点,还需要在/etc/hosts增加如下内容: 192.168.12.231 Mysql1 192.168.12.232 Mysql2 192.168.12.230 web1192.168.12.240 web2到这里为止,在storgae-server主机上的设置完成。

四、在集群节点安装RHCS软件包为了保证集群每个节点间可以互相通信,需要将每个节点的主机名信息加入/etc/hosts文件中,修改完成的/etc/hosts文件内容如下: 127.0.0.1 localhost 192.168.12.230 web1 192.168.12.240 web2 192.168.12.231 Mysql1192.168.12.232 Mysql2将此文件依次复制到集群每个节点的/etc/hosts文件中。

RHCS软件包的安装有两种方式,可以通过luci管理界面,在创建Cluster时,通过在线下载方式自动安装,也可以直接从操作系统光盘找到所需软件包进行手动安装,由于在线安装方式受网络和速度的影响,不建议采用,这里通过手动方式来安装RHCS软件包。

安装RHCS,主要安装的组件包有cman、gfs2和rgmanager,当然在安装这些软件包时可能需要其它依赖的系统包,只需按照提示进行安装即可,下面是一个安装清单,在集群的四个节点分别执行: #install cman rpm -ivhperl-XML-NamespaceSupport-1.09-1.2.1.noarch.rpm rpm -ivhperl-XML-SAX-0.14-8.noarch.rpm rpm -ivhperl-XML-LibXML-Common-0.13-8.2.2.i386.rpmrpm -ivh perl-XML-LibXML-1.58-6.i386.rpmrpm -ivh perl-Net-Telnet-3.03-5.noarch.rpmrpm -ivh pexpect-2.3-3.el5.noarch.rpm rpm -ivh openais-0.80.6-16.el5_5.2.i386.rpm rpm -ivh cman-2.0.115-34.el5.i386.rpm #install ricci rpm -ivhmodcluster-0.12.1-2.el5.centos.i386.rpm rpm -ivhricci-0.12.2-12.el5.centos.1.i386.rpm #install gfs2 rpm -ivhgfs2-utils-0.1.62-20.el5.i386.rpm #install rgmanager rpm -ivhrgmanager-2.0.52-6.el5.centos.i386.rpm五、在集群节点安装配置iSCSI客户端安装iSCSI客户端是为了和iSCSI-target服务端进行通信,进而将共享磁盘导入到各个集群节点,这里以集群节点web1为例,介绍如何安装和配置iSCSI,剩余其它节点的安装和配置方式与web1节点完全相同。

iSCSI客户端的安装和配置非常简单,只需如下几个步骤即可完成: [root@web1 rhcs]# rpm -ivh iscsi-initiator-utils-6.2.0.871-0.16.el5.i386.rpm [root@web1 rhcs]#/etc/init.d/iscsi restart [root@web1 rhcs]# iscsiadm -m discovery -t sendtargets -p 192.168.12.246 [root@web1 rhcs]# /etc/init.d/iscsi restart [root@web1 rhcs]# fdisk -l Disk /dev/sdb: 10.7 GB, 10737418240 bytes 64 heads, 32 sectors/track, 10240 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Disk /dev/sdb doesn't contain a valid partition table通过fdisk的输出可知,/dev/sdb就是从iSCSI-target共享过来的磁盘分区。

至此,安装工作全部结束。

六、配置RHCS高可用集群配置RHCS,其核心就是配置/etc/cluster/cluster.conf文件,下面通过web管理界面介绍如何构造一个cluster.conf文件。

打开luci登录界面,如图1所示:图1成功登录后,luci有三个配置选项,分别是homebase、cluster和storage,其中,cluster 主要用于创建和配置集群系统,storage用于创建和管理共享存储,而homebase主要用于添加、更新、删除cluster系统和storage设置,同时也可以创建和删除luci登录用户。

如图2所示:图2创建一个cluster 登录luci后,切换到cluster选项,然后点击左边的clusters选框中的“Create a new cluster”,增加一个cluster,如图3所示:在图3中,创建的cluster 名称为mycluster,“Node Hostname”表示每个节点的主机名称,“Root Password”表示每个节点的root用户密码。

每个节点的root密码可以相同,也可以不同。

在下面的五个选项中,“Download packages”表示在线下载并自动安装RHCS软件包,而“Use locally installed packages”表示用本地安装包进行安装,由于RHCS组件包在上面的介绍中已经手动安装完成,所以这里选择本地安装即可。

剩下的三个复选框分别是启用共享存储支持(Enable Shared StorageSupport)、节点加入集群时重启系统(Reboot nodes before joining cluster)和检查节点密码的一致性(Check if node passwords are identical),这些创建cluster的设置,可选可不选,这里不做任何选择。

“View SSL cert fingerprints”用于验证集群各个节点与luci通信是否正常,并检测每个节点的配置是否可以创建集群,如果检测失败,会给出相应的错误提示信息。

如果验证成功,会输出成功信息。

所有选项填写完成,点击“Submit”进行提交,接下来luci开始创建cluster,如图4所示:在经过Install----Reboot----Configure----Join四个过程后,如果没有报错,“mycluster”就创建完成了,其实创建cluster的过程,就是luci将设定的集群信息写入到每个集群节点配置文件的过程。

Cluster创建成功后,默认显示“mycluster”的集群全局属性列表,点击cluster-->Cluster list来查看创建的mycluster 的状态,如图5所示:从图5可知,mycluster集群下有四个节点,正常状态下,节点Nodes名称和Cluster Name 均显示为绿色,如果出现异常,将显示为红色。

点击Nodes下面的任意一个节点名称,可以查看此节点的运行状态,如图6所示:图6从图6可以看出,cman和rgmanager服务运行在每个节点上,并且这两个服务需要开机自动启动,它们是RHCS的核心守护进程,如果这两个服务在某个节点没有启动,可以通过命令行方式手工启动,命令如下: /etc/init.d/cman start /etc/init.d/rgmanager start服务启动成功后,在图6中点击“Update node daemon properties”按钮,更新节点的状态。

通过上面的操作,一个简单的cluster就创建完成了,但是这个cluster目前还是不能工作的,还需要为这个cluster创建Failover Domain、Resources、Service、Shared Fence Device等,下面依次进行介绍。

相关文档
最新文档