双服务器加磁盘阵列柜CLUSTER集群模式配置

合集下载

服务器之磁盘阵列RAID——配置方法(图解)

服务器之磁盘阵列RAID——配置方法(图解)

磁盘阵列可以在安装系统之前或之后产生,系统会视之为一个(大型)硬盘,而它具有容错及冗余的功能。

磁盘阵列不单只可以加入一个现成的系统,它更可以支持容量扩展,方法也很简单,只需要加入一个新的硬盘并执行一些简单的指令,系统便可以实时利用这新加的容量。

·RAID 的种类及应用IDE和SCSI是计算机的两种不同的接口,前者普遍用于PC机,后者一般用于服务器。

基于这两种接口,RAID分为两种类型:基于IDE接口的RAID应用,称为IDE RAID;而基于SCSI接口的RAID应用则相应称为SCSI RAID。

基于不同的架构,RAID 又可以分为:● 软件RAID (软件RAID)● 硬件RAID (硬件RAID)● 外置RAID (External RAID)·软件RAID很多情况下已经包含在系统之中,并成为其中一个功能,如Windows、Netware及Linux。

软件RAID中的所有操作皆由中央处理器负责,所以系统资源的利用率会很高,从而使系统性能降低。

软件RAID是不需要另外添加任何硬件设备,因为它是靠你的系统——主要是中央处理器的功能——提供所有现成的资源。

·硬件RAID通常是一张PCI卡,你会看到在这卡上会有处理器及内存。

因为这卡上的处理器已经可以提供一切RAID所需要的资源,所以不会占用系统资源,从而令系统的表现可以大大提升。

硬件RAID可以连接内置硬盘、热插拔背板或外置存储设备。

无论连接何种硬盘,控制权都是在RAID卡上,亦即是由系统所操控。

在系统里,硬件RAID PCI卡通常都需要安驱动程序,否则系统会拒绝支持。

·外置式RAID也是属于硬件RAID的一种,区别在于RAID卡不会安装在系统里,而是安装在外置的存储设备内。

而这个外置的储存设备则会连接到系统的SCSI卡上。

系统没有任何的RAID功能,因为它只有一张SCSI卡;所有的RAID功能将会移到这个外置存储里。

集群的配置步骤

集群的配置步骤

集群的配置步骤一、搭建集群环境的准备工作在开始配置集群之前,我们需要先进行一些准备工作。

首先,确保所有服务器都已经正确连接到网络,并且能够相互通信。

其次,确保每台服务器上已经安装了操作系统,并且操作系统版本一致。

最后,确保每台服务器上已经安装了必要的软件和工具,例如SSH、Java等。

二、创建集群的主节点1.选择一台服务器作为集群的主节点,将其IP地址记录下来。

2.登录到主节点服务器上,安装并配置集群管理软件,例如Hadoop、Kubernetes等。

3.根据集群管理软件的要求,配置主节点的相关参数,例如集群名称、端口号等。

4.启动集群管理软件,确保主节点能够正常运行。

三、添加集群的工作节点1.选择一台或多台服务器作为集群的工作节点,将其IP地址记录下来。

2.登录到工作节点服务器上,安装并配置集群管理软件,确保与主节点的版本一致。

3.根据集群管理软件的要求,配置工作节点的相关参数,例如主节点的IP地址、端口号等。

4.启动集群管理软件,确保工作节点能够正常连接到主节点。

四、测试集群的连接和通信1.在主节点服务器上,使用集群管理软件提供的命令行工具,测试与工作节点的连接和通信。

例如,可以使用Hadoop的hdfs命令测试与工作节点的文件系统的连接。

2.确保主节点能够正确访问工作节点的资源,并且能够将任务分配给工作节点进行处理。

五、配置集群的资源管理1.根据集群管理软件的要求,配置集群的资源管理策略。

例如,可以设置工作节点的CPU和内存的分配比例,以及任务的调度算法等。

2.确保集群能够合理分配资源,并且能够根据需要动态调整资源的分配。

六、监控和管理集群1.安装并配置集群的监控和管理工具,例如Ganglia、Zabbix等。

2.确保监控和管理工具能够正常运行,并能够及时发现和处理集群中的故障和问题。

3.定期对集群进行巡检和维护,确保集群的稳定和可靠性。

七、优化集群的性能1.根据实际情况,对集群的各项参数进行调优,以提高集群的性能和效率。

cluster配置方法

cluster配置方法

Redhat Cluster安装软件环境:Redhat Cluster4、Redhat Cluster 5操作步骤:安装过程之前请确认cluster组件已经安装.如果未安装,建议重装系统,或者编译yum源。

RED HAT做双机需要5个IP。

每台机器两个IP,网口一个,管理口一个,加上一个虚拟IP。

管理口IP需在BIOS里设定。

(一).进入第一台主机命令行Fence_ipmilan -a 192.168.100.12 -l USERID -p PASSW0RD -o status测试管理口是否能正常使用。

Vi /etc/sysconfig/network-scripts/ifcfg-eth0改网关编辑器内容显示Bootproto=staticonboot=yes#DHCP_HOSTNAME=localhost.localdomain井号的意义是把主机名注销掉然后设置IP,掩码,网关IPADDR=192.168.100.2NETWORK=255.255.255.0GATEWAY=192.168.100.1网络重启生效,命令如下/etc/init.d/network restart1.编辑:/etc/hosts:复制到各个节点中相应位置:/etc/node为主机名需要在每台机器上进行设置,操作指令为:vi /etc/sysconfig 找到hostname进行修改Fence为IMM管理口,在F1设置中需要设置IP(询问客户)设置IP与相对应的主机名(包括节点、fence设备、浮动IP)2.安装Cluster套件:运行system-config-cluster选择加锁模式,为DLM方式:3.设置cluster基本属性4.将两个节点加入到Cluster Nodes(节点名同主机名)中,Quornm Votes不需要设置:芯片,要在服务器中事先做好设置,ibm和dell服务器在这个选项中选择ipmi lan6.将各节点和相应的Fence Device关联起来7.建立一个Failover Domain域,将两节点加入到Domain中8.添加资源9.组建服务,向服务中添加资源10.保存集群配置文件,文件将放在/etc/cluster/中11.将配置文件拷入到其他节点中的相应位置:/etc/cluster/12.在每个节点中依次起一下服务:RHEL5下启动/停止service cman start/stopservice rgmanager start/stopRHEL4下启动/停止service ccsd start/stopservice cman start/stopservice fenced start/stopservice rgmanager start/stop。

双机配置

双机配置

此操作步骤请配合观看录象和矿上实际情况配置安装前准备1.安装好SQL2000数据库,库建在阵列上。

安装数据库时可以先关掉一台机器,将数据库的程序文件放在默认的C盘,数据文件指定在磁盘阵列上的一个文件夹。

在安装完此数据库后将磁盘阵列上的数据文件夹更改名称,(例如存放在的CPDA TA改成-->CPDATA1)避免在安装另外一台服务器时选择数据文件路径时覆盖该文件夹而出错。

在安装第二台服务器的数据库时,操作方法和第一台相同,数据文件存放文件夹名称要一致(CPDA TA)。

2.规划好IP和主机名,确保应用服务器不冲突3.所有由双机软件控制的服务都设置成手动(在这里为MSSQLSERVER和SQLSERVERAGENT)4.做好脚本启动用户软件start.bat 脚本右键编辑,核对两个文件路径是不是现在用的DC DG的文件路径,检查的办法可以双击执行该脚本,看是否能正常启动KJ4N的DC和DG 程序。

START.BAT不是安装生成文件,程序包内带有,没有固定要求,一般放在KJ4N文件夹下就可以,只要在配置过程中输入START.BA T正确的文件存放路径就可以。

安装双机软件步骤1.安装双机程序一路选择默认安装就可以,注意2台服务器都要安装但是配置过程只用在2台服务器联网的状态下配置其中一台就可以的,配置过程时同步的。

2.双机配置信息:双机集群名:可以自定义虚拟主机名:可以自定义从外界看2台服务器是1台机器,给这台机器起的名称就是虚拟主机名虚拟IP:虚拟IP的原理同上管理工具:控制服务:MSSQLSERVER;SQLSERVERAGENT;启动脚本:D:\anhang\KJ4N\start.bat; 这个路径是存放START.BAT的路径监控进程:Kj4N-DG .exe;KJ4N-DC.exe;切换规则:普通模式软件配置步骤1.把双机需要控制的服务设置成手动,如图:2.打开集群管理器3.在集群管理器里随意填入集群名字(此处为New Cluster1)4.添加双机主机5.分别为两台主机添加网络信息,选择时会自动弹出本机IP,心跳和本机IP选择一致。

双活数据中心解决方案(最新)

双活数据中心解决方案(最新)

构建永不宕机的信息系统——双活数据中心双活数据中心解决方案目录案例分享12存储层应用层双活数据中心端到端技术架构数据中心A 数据中心B双活存储层双活访问、数据零丢失异构阵列双活应用层Oracle RAC 、VMware 、FusionSphere 跨DC 高可用、负载均衡、迁移调度双活网络层高可靠、优化的二层互联最优的访问路径≤100km 裸光纤Fusion SphereFusion Sphere接入层汇聚层核心层DC 出口网络层GSLB SLBGSLB SLB前端应用的双活(VMware )vm vm vm vm vm vm vm vm vm vm vm vmADvm vm vm vm SQL node1MSCSvCenterServervm vmvm vm APP…….APP…….SQL node2MSCSvm vm vm vm vm vm vm vm vm 大二层互通网络,跨数据中心VM 配置双活应用,使用虚拟化网关提供的镜像卷作为共享存储Weblogic业务集群管理集群vmWeblogic•vSphere Cluster HA •vSphere Cluster DRS •配置PDL 参数•Huawei OceanStor UltraPath for vSphere•配合负载均衡设备实现Weblogic 访问自动漂移和均衡VMware 配置要点业务访问效果•业务访问负载均衡•虚拟机分布按业务压力自动均衡•故障自动切换访问•Weblogic 可动态扩展•单数据中心故障恢复后,虚拟机自动回切Operating System Instance1Listener1Service1Operating SystemInstance2Listener2Service1Operating SystemInstance3Listener3Service2VIP3VIP2VIP1Shared Storage数据中心A 数据中心B服务配置策略服务名INSTANCE1INSTANCE2INSTANCE3SERVICE1PREFERRED PREFERRED AVAILABLE SERVICE2AVAILABLEAVAILABLEPREFERRED•集群“2+1”部署›适配数据中心业务分布有偏重的场景›适配两个数据中心存在优先存活数据中心的场景•Oracle RAC 仲裁原则›拥有最多节点数目的子集群(Sub-cluster with largest number of Nodes )获胜›若子集群内数目相等则拥有最低节点号的子集群(Sub-cluster with lowest node number)获胜数据中心业务分布设计访问分离减少缓存融合•访问分离›为了避免跨数据中心进行数据的交互,建议在Oracle RAC 层创建不同的service ,实现业务分离。

NEC+ExpressCluster安装及配置说明

NEC+ExpressCluster安装及配置说明

NEC ExpressCluster安装及配置说明一、确认网络环境:网络搭建需要2个网络支持,一个是私网,一个是公网。

私网是用来做服务器集群镜像数据同步的,公网是用来做外部数据输入和输出的。

搭建时,私网可以将2个服务器极联,处于同一IP段内;公网连接在同一个交换机上,处于同一IP段内。

私网和公网不能处于同一个IP段。

说明中,2个服务器(机器名为MSC和CC)搭建的公网IP为192.168.1.3和192.168.1.4,私网IP为192.168.2.3和192.168.2.4。

下一步设置网络访问顺序,网络连接→高级→高级设置,如图:通过右边向上和向下按钮调节公网和私网的顺序,要求公网在上,私网在下,然后点“确定”。

分别为2台服务器做以上设置。

设置好后2台服务器互PING一下,要求2台服务器之间公网和私网都能互通。

二、确认磁盘环境:服务器集群镜像数据同步需要建立2个磁盘分区,一个是管理分区,一个是数据分区。

管理分区是用来存储集群软件配置文件的分区,数据分区是用来存储应用数据的分区,比如说数据库。

换句话理解就是管理分区是NEC ExpressCluster程序用的分区,而数据分区是公司软件用的分区。

使用这个软件的目的就是在多服务器系统中,通过该软件以镜像方式将公司软件需要的数据存储在多个服务器的数据分区中,并使之能够自动切换。

一般较多应用于主备数据库同步中。

下一步进行分区设置:打开计算机管理→磁盘管理→在未划分磁盘上“新建磁盘分区”,如图:按照“新建磁盘分区向导”划分一个大小为20000M的分区,驱动器号为E,作为管理分区。

注意,管理分区不能小于17M,并且不能格式化,并完成向导。

同样的操作方法,将剩余空间以驱动器号H,划分为数据分区。

注意:数据分区要求执行格式化。

同理,将第二个服务器也做相同磁盘配置。

注意:2台服务器的管理分区和数据分区大小要保持一致!三、NEC ExpressCluster软件的安装:双击运行安装程序单击红框按钮单击红框按钮下一步下一步安装开始安装进度。

Linux系统双机热备的方案

Linux系统双机热备的方案

Linux系统双机热备的⽅案Linux系统双机热备的⽅案⽬前,双机和集群采⽤的操作系统主要有UNIX、Linux、BSD及微软公司的Windows NT/2000。

随着Linux的迅速发展,稳定性、安全性及功能的不断增强,⼈们对Linux的使⽤越来越⼴泛,Linux已成为服务器市场中的⼀个重要操作系统,基于Linux的双机和集群系统也越来越多。

Linux集群的主要优点有:⾼可靠性、⾼性能、低成本等等。

1.1 概述1.1.1 实现⽬的双机热备份(Hot Standby)是⼀种软硬件相结合的⾼可靠性应⽤⽅案。

双机热备系统由两台独⽴的服务器以及相应的控制软件构成,两台服务器在⽹络中表现为单⼀的系统,对外表现为⼀个独⽴的⽹络IP,并以单⼀系统的模式进⾏控制和管理。

该系统将两台服务器的数据和运⾏状态(包括硬盘数据和内存数据)进⾏镜像,可以实现两台服务器之间的热备份,并能够做到⽆缝切换,从⽽对外提供稳定可靠的服务,实现双机系统的⾼可⽤性解决⽅案。

1.1.2 功能概述双机热备份系统由相应的应⽤软件进⾏控制,操作系统和应⽤程序安装在两台服务器的系统盘上。

每⼀台服务器分配⼀个固定的IP地址,此外还指定了⼀个独⽴IP地址作为集群IP(cluster IP),该IP是双机系统对外提供服务的接⼝。

两台服务器⼀台成为主节点(Primary Server),另⼀台成为从节点(Standby Server),主节点与从节点之间保持固定时间间隔的⼼跳信号,通过⼼跳信号实现两个对等系统之间的周期性的握⼿,从⽽能够监视对⽅的运⾏状态,进⾏主机及⽹络的故障检测。

在系统正常情况下,主节点占⽤系统资源并运⾏所有的服务,为信息系统提供⽀持,从节点通过⼼跳信号监视主节点的运⾏情况。

⼀旦主节点发⽣故障(如主机故障,⽹络故障,软件故障等),从节点就会⾃动接管(Take Over)主节点的资源和服务,继续⽀持信息的运营,从⽽保证整个双机系统能够不间断的运⾏(Non-Stop)。

Dell服务器做Cluster(集群)的硬件配置方法

Dell服务器做Cluster(集群)的硬件配置方法

Dell服务器做Cluster(集群)的硬件配置方法配置环境:两台服务器(Server1, Server2)连接一个PV220S磁盘阵列柜。

配置步骤:1. 将PV220系列阵列柜上的拔动开关打到CLUSTER模式, 这个开关如果是开机时改的, 需重启一次盘柜更改才能生效。

开关的位置在盘柜背面中间的一块卡上。

2. 连接两个服务器与磁盘阵列柜的连线:两个服务器需各配一块阵列卡,各连接一根SCSI线到盘柜后面的EMM卡上。

如果服务器上的阵列卡是双通道的,两个服务器连接SCSI线的通道要一致。

(如果Server1是连接通道1,则Server2也需要连接通道1)注:服务器连接内部硬盘与连接外部阵列柜不能使用同一块RAID 卡,如果服务器没有板载的阵列控制器,本机硬盘也要做阵列的话,则需要配置两块阵列卡。

3. 启动Server1, 第二节点服务器为Server2),按Ctrl + M进入RAID控制器的BIOS,选择Object ? Adapter,将Disable BIOS改成Enable BIOS, 这个选项是将RAID的启动BIOS选项关闭,目的是不从这块RAID启动操作系统(页面上会显示是ENABLE BIOS,实际上BIOS已经被DISABLE了)。

4. 将Cluster Mode设置为Enable, 服务器会重启。

重启过后再按Ctrl + M进入RAID卡的BIOS,将RAID控制器的Initiator ID设为7(默认即为7)。

5. 配置磁盘阵列:退到第一层菜单,选择Configure ? New Configuration配置盘柜硬盘的阵列。

(注:此选项会清除原盘柜上所有的阵列信息。

)6. Server1关机,启动Server2, 按Ctrl + M进入RAID控制器的BIOS,选择Object ? Adapter,将显示的Disable BIOS改成Enable BIOS。

7. 将Cluster Mode设置为Enable,服务器会重启。

Windows Server 2003 双机配置(详细)

Windows Server 2003 双机配置(详细)

应用环境配置:1.戴尔服务器两台(A为主服务器,B为备服务器):操作系统为Windows Server 2003 Enterprise Edition或Windows Server 2003 Datacenter Edition2.共享阵列柜一个(DELL POWERV ANLT 220S,5块73G SCSI 硬盘):置于cluster模式3.心跳线一根(交叉线):服务器相同型号网卡互连4.与阵列柜相连阵列卡两块:分别插于戴尔服务器5.数据线两根:分别连接服务器与阵列柜6.每台服务器网卡至少两块:一块用于连接公共网络(Public),一块用于服务器直连(Private)安装步骤第一步、配置服务器1、将两台服务器A和B连起来。

两块网卡(连接公网)连到交换机上;两块网卡(服务器直连通讯用)用心跳线连接起来。

磁盘柜用DELL的数据线接到两台服务器上。

2、两台服务器都开机,在两台服务器A和B上分别安装Windows Server 2003 Enterprise Edition。

注意:如果您试图将一个节点加入一个具有空白的本地管理员帐户密码的群集,安装将会失败。

基于安全原因,Windows Server 2003禁止使用空白的管理员密码。

3、配置两块连接公网网卡的IP地址,服务器A的IP地址为:172.116.2.3,服务器B的IP地址为:172.116.2.4。

配置两块私有网卡的IP 地址,服务器A的IP地址为:10.1.1.3,服务器B的IP地址为:10.1.1.4。

在两台服务器上的C:\WINDOWS\system32\drivers\etc\hosts中增加相应的主机和IP地址记录。

Oa1 172.116.2.3Oa2 172.116.2.4Oacluster 172.116.2.5Oa1.oaserver.local 172.116.2.3Oa2.oaserver.local 172.116.2.4Oacluster.oaserver.local 172.116.2.54、将服务器A配置为域控制器,取域名为(OASERVER.LOCAL)。

双机热备安装说明书

双机热备安装说明书

双机热备安装说明书2008年4月1日双机热备连接图备注:1、服务器必须具备双网口,磁盘阵列柜必须是双控的(可以连两个HBA卡)2、内网线:A、B服务器之间相连的网线。

3、外网线:A、B服务器都连接到交换机的线1.1 安装双机群集系统安装双机群集系统的步骤如下:(1) 系统安装2003server 企业版+sp2,(2) 配置网络;(3) 在服务器A建立一个主域控制器。

(4) 将服务器B加入到服务器A建立的域中;(5) 设置磁盘柜阵列;(6) 在服务器A创建Cluster(节点);(7) 在服务器B创建Cluster(节点);(8) 检查双机的Cluster service是否成功;(9) 检验双机群集是否成功;(10) SQL2000+SP2安装;1.1.1 配置网络每台IBM3650服务器有两个以太网口,网口一为其对外的工作网口,网口二为两个IBM3650服务器的心跳线连接网口,两个网口不能设置在同一网段,两个IBM3650的网口一设置为设备所在局域网网段中的地址,网口二只涉及两个服务器之间的通信,也就通过心跳线通信检测对方状态,其地址不可与网口一在同一网段,重新分配一个网段只要保证两台IBM3650服务器的网口二正常通信,并且不与网络中的其它网络地址重复即可。

举例说明,网络配置步骤如下:(1) 单击“开始”,选择“设置”的“控制面板”,右击“网络连接”,然后单击“打开”。

(2) 右击“本地连接2”图标。

(3) 单击“重命名”。

(4) 在文本框中键入“HeartBeat”(专用网络),然后按“ENTER”键。

(5) 参照步骤1至3,然后将“本地连接1”公用网络适配器重命名为“LAN”(公用网络)。

主机A(任选一台,认定为双机中的主用机),设定网口一地址为192.168.0.1 掩码为255.255.255.0,该地址为主机A的工作地址,首选DNS服务器地址为192.168.0.1,备用DNS服务器为192.168.0.2,见图1-1。

hpux双机详细步骤

hpux双机详细步骤

HP-UX MC安装详细参考手册作者:devyfong目录一、配置MC的基本过程 (4)二、关于本文 (5)编写本文的目的 (5)规则定义及说明 (5)三、安装软件 (5)四、准备系统 (5)建立主机信任关系 (5)启动时间同步进程 (5)五、网卡准备 (6)六、准备磁盘 (6)创建逻辑卷(LV)结构 (6)创建root盘的镜像 (6)创建卷组(VG)和逻辑卷(LV) (7)修改卷组属性 (8)在另一台主机上设置VG (8)创建其他卷组结构 (9)所有卷组创建完成后 (9)最后步骤 (9)七、配置CLUSTER (9)生成CLUSTER配置文件模板 (9)编辑CLUSTER配置文件模板 (9)检查CLUSTER配置的正确性 (10)八、配置PACKAGE和SERVICES (11)创建子目录 (11)建立配置文件模板 (11)编辑配置文件模板 (11)建立控制脚本的模板 (12)控制脚本模式设置 (12)编辑控制脚本 (12)检查并分发配置文件 (12)九、管理CLUSTER和PACKAGE (13)管理C LUSTER和节点 (13)启动Cluster (13)在已运行的Cluster中增加一个节点运行 (13)在已运行的Cluster中停止一个节点运行 (13)停止整个Cluster (13)对Cluster进行重新配置 (13)管理P ACKAGE和S ERVICE (13)启动Package (13)停止Package,不切换 (13)移动Package (13)对Package进行重新配置 (14)查看运行情况 (14)十、测试CLUSTER配置 (14)测试P ACKAGE M ANAGER (14)测试C LUSTER M ANAGER (14)测试N ETWORK M ANAGER (14)十一、故障诊断方法 (15)附:一些有用的系统命令 (15)查看硬件配置情况 (15)配置LAN (15)扩充HFS文件系统 (16)移动文件系统 (16)文件系统日常维护 (16)删除CORE文件 (17)将磁盘从一个卷组移到另一个卷组 (17)PV-L INK(物理卷链路)配置 (17)手工启动HP-UX (17)进入ISL界面: (17)进入单用户状态 (17)安装软件时检查SWAGENTD是否启动 (17)软件打包到磁带(SWINSTALL格式) (17)杀死指定名字的进程 (18)检测INFORMIX SERVER状态 (18)一、配置MC的基本过程本表仅供参考:二、关于本文编写本文的目的公司的技术人员,根据该模板均能成功安装配置统一风格、符合FR 规范的MC高可用系统,通过本文档,系统管理员可对双机的基本概念有一定的了解;可完成双机的安装配置、日常管理、监控等任务。

redhat linux cluster实现oracle双机热备

redhat linux cluster实现oracle双机热备

redhat linux cluster实现oracle双机热备硬件:有两台hp服务器和一台hp共享磁盘阵列软件:redhat 企业版4.0和cluster4.0oracle10g现在用两台hp 580g4服务器,一台hp磁盘阵列和redhat4.0、cluster4.0实现apache服务切换,只差oracle 的安装和配置。

现将cluster的大概配置告诉大家。

1、硬件连接。

将两台服务器和磁盘阵列连接,通过scisi线;将两台服务器的eth0和交换机相连,勿需专门的心跳线。

将两台服务器的ILO网口分别和交换机相连。

2、配置hp 服务器的ILO,开机时候按F8,进入配置界面,配置IP地址。

假如配置的是局域网中IP地址,可通过其它电脑IE访问其web界面。

如:http://192.168.0.22/,输入用户名和密码,用户名和密码在服务器机身上。

可实现远程开关服务器,因为ILO内置web服务,只要服务器有电就可访问,不依耐操作系统。

3、安装linux操作系统。

安装网卡驱动(我找别人装的,对linux不熟),配置网卡ip地址和修改主机名。

hp服务器自带两块1000M网卡,根据前面硬件连接,只是用到了Eth0,Eth1闲置。

对两台服务器的/etc/hosts 文件进行编辑,添加两台服务器名字和ip的对应表,如:192.168.0.42 node1192.168.0.43 node2node1和node2为主机名,ip和主机名之间用tab隔开即可,保证两台服务器的hosts文件一致。

重启服务器。

4、安装cluster4.0,cluster安装的时候对软件包稍有定制。

安装完成以后,在终端中通过system-config-cluster命令打开cluster配置界面。

(1)配置cluster nodes。

将两台服务器添加键来进来,节点名可任意命名,在主机名一栏中输入正确的主机名。

(2)Fence Divices配置。

服务器双机热备

服务器双机热备

系统安装本文所述双机热备是采用微软公司Windows2003 Server操作系统,非第三方管理软件。

硬件需求:1、两台服务器,一台为主域控制器,另一台为额外域控制器;2、每台服务器配置两块网卡,和两块阵列卡(一块做本地服务器磁盘阵列,另一块连接磁盘柜阵列);3、一台用来共享资源的存储设备(本文为Dell221s磁盘阵列柜);4、一条点对点的反转网线(充做心跳线);两条将服务器接入网络的网线。

系统安装:主域控制器和额外域控制器可以分两个时间段来完成,这也是群集的最大特点,可以不停机的进行数据转移。

以下一同描述主域控制器和额外控制器的安装:1、服务器分为主域控制器(主服务器)和额外域控制器(从服务器),这里将主域控制器标名为hrb0,将额外域控制器标名为hrb1;2、将hrb0 的第一块网卡做为外网(局域网)使用的网卡,标明public,第二块网卡做为私网(与hrb1的连接)使用的网卡,标明private;3、在主服务器上安装Windows 2003 Server Enterprise(过程略);4、配置tcp/ip协议:外网: 10.195.10.18 掩码:255.255.255.0 网关:10.195.10.210DNS:10.195.10.19 10.195.10.18(把对方服务器IP作为本机的主DNS,本机地址做备用DNS)内网: 192.168.0.1 掩码:255.255.255.0 (网关空)DNS: 192.168.0.2 192.168.0.1(把对方服务器IP作为本机的主DNS,本机地址做备用DNS)5、安装补丁;6、其它相关配置完成后,关闭服务器,准备连接磁盘阵列;7、将磁盘阵列柜的应用模式调至“群集模式”(在盘柜的背面有滑动开关,调至靠近模块拉手一侧);由于在“群集模式”下,RAID卡会占用ID15的槽位,所以ID15槽位的磁盘在以后的配置应用过程中不会起到作用,建议将盘柜ID15槽位的硬盘取下,做为以后的备用硬盘。

磁盘阵列配置文档

磁盘阵列配置文档

开拓天际磁盘阵列配置文档作者孔令磊创建时间2008-3-21 审核人审核时间文档状态发布文档版本V1.0审批人审批时间最后修改人孔令磊最后修改时间2008-3-21 文档编号面向人员运维支撑中心内部成员文档修改记录:版本修改日期修改人员修改记录V1.02008-3-21 孔令磊创建文挡文档审核记录:版本审核日期审核人员审核记录目录一.文档介绍 (5)1.文档范围 (5)2.读者对象 (5)二.内容 (5)一.文档介绍1.文档范围磁盘阵列的物理连接,配置,在服务器上主AD,从AD的建立,以及在服务器上cluster的建立的步骤。

注意事项:1.开关顺序:先开盘阵,启动正常后再启动服务器2.盘阵的连接:对于双主控的盘阵要把每个控制器上的管理口和交换机相连,再从交换机连到管理计算机进行配置,单主控的盘阵只需连接一个。

双主控的盘阵配置时如果只连一个控制器则在配置逻辑盘时会出现不能访问另一个控制器的错误而不能创建成功。

3 系统中的设置:盘阵配置好后,需要在每个服务器中安装HBA卡的补丁(运行随盘阵的光盘),那么在操作系统的磁盘管理中会出所创建的逻辑分区,否则会出现多个逻辑分区。

服务器间的心跳IP为是:主服务器的192.168.0.1,备服务器的192.168.0.2服务器之间的局域网IP为:主服务器10.1.1.1。

备服务器10.1.1.2磁盘阵列IBM DS 3400,配置10 SAS 300G的硬盘,8块做RAID5,2块做Hot spare;2.读者对象运维支撑中心内部成员。

二.内容1物理上的连接如图所示:两台服务器上分别安装了两块HBA卡。

从主机A的HBA卡用光纤分别连接到磁盘阵列的模块1和模块2上的光线口上,网卡1配置IP地址为10.1.1.1用超五类双绞线连接到HUB上,网卡2上配置192.168.0.1用六类双绞线连接主机B的网卡2,。

从主机B的HBA卡用光纤分别连接到磁盘阵列的模块1和模块2上,网卡1上配置10.1.1.2用超五类双绞线连接到HUB上,网卡2配置192.168.0.2。

双机容错技术简介

双机容错技术简介

双机容错技术简介随着网络应用的不断增多,对网络服务的可靠性要求也越来越强。

服务器系统作为整个网络系统提供服务的核心,如果一旦有故障就会影响整个业务系统的正常运行,给企事业单位带来无可估量的经济损失。

根据有关机构的调查表明,在系统服务器硬件中,最容易发生故障的仍然是传统的的机械部分即硬盘(故障发生率为50%左右),其次是内存和电源。

目前,对上述三者所实行的基本可靠性措施已经相当完备。

然而在软件故障中,有系统本身或应用引起的故障越来越多。

群集备份技术是解决由软硬件引起可靠性降低的有效措施。

群集技术是用网络将两个以上的服务器连接起来,当一台服务器停机时,群集中的其他服务器在保证自身业务的基础上,将停机服务器的业务接管。

在群集系统中,最简单、最为典型的是双机热备系统。

双机热备份是提供计算机网络系统可靠性的有力措施。

在一台服务器出现故障时,备机主动替代主机工作,保证网络服务不间断。

双机热备份系统是一种软硬件结合的高可靠性应用模式。

该系统由两台服务器系统和一个外接共享磁盘阵列柜及相应的双机热备份软件组成。

用户的数据存放在外接共享磁盘阵列中。

操作系统和应用程序安装在两台服务器的本地系统盘上。

双机热备份系统采用“心跳”方法保证主系统与备用系统的联系(所谓“心跳”,指的是主从系统之间,相互按照一定的间隔发送通讯信号,表明系统目前的运行状态)。

一旦“心跳”信号表明主机系统发生故障,或者备用系统无法收到主机系统的“心跳”信号,则系统的高可用性管理软件认为主机系统发生故障,主机停止工作,并将系统资源转移到备用系统上,备用系统将替代主机发挥作用,以保证网络服务运行不间断。

双机热备份系统图二、微软集群(CLUSTER)技术2.1技术简介为了向管理员提供管理企业和商业网络服务器的高级管理功能。

微软公司将群集技术集成在windows NT/2000 /2003 server企业版操作系统中,将该技术分为群集服务(CLUSTER)和负载平衡(NLB)服务。

cluster集群原理

cluster集群原理

cluster集群原理Cluster集群原理一、引言随着云计算和大数据时代的到来,集群成为了一种重要的计算模式。

而Cluster集群作为其中的一种实现方式,在分布式计算中扮演着重要的角色。

本文将介绍Cluster集群的原理和相关概念。

二、Cluster集群概述Cluster集群是由多台服务器组成的计算机集合,这些服务器通过网络进行连接和通信。

集群中的各个服务器通过工作协同的方式,共同完成一项任务。

Cluster集群通过将大规模的计算任务分割成多个小任务,将其分配给不同的服务器进行并行计算,从而提高计算效率和性能。

三、Cluster集群的优势1. 高可靠性:Cluster集群由多台服务器组成,服务器之间可以相互备份和故障转移,当某台服务器发生故障时,可以自动切换到其他正常工作的服务器上,保证系统的持续稳定运行。

2. 高性能:Cluster集群可以将任务分配给多台服务器同时进行计算,充分利用了服务器的计算资源,大大提高了计算速度和吞吐量。

3. 可扩展性:Cluster集群可以根据需要随时增加或减少服务器节点,从而满足不同规模和计算需求的变化。

四、Cluster集群的工作原理1. 负载均衡:Cluster集群通过负载均衡的方式将任务均匀地分配给各个服务器,避免单个服务器负载过重,保证系统的稳定性和高效性。

2. 分布式存储:Cluster集群中的服务器可以共享存储空间,将数据分布存储在不同的服务器上,提高数据的可靠性和访问速度。

3. 任务调度:Cluster集群中的任务调度器负责将任务分配给空闲的服务器进行计算,并监控任务的执行情况。

当任务完成或服务器发生故障时,任务调度器会重新分配任务或切换到其他服务器上。

4. 数据同步:Cluster集群中的数据同步机制保证了数据在各个服务器之间的一致性。

当有新的数据写入或更新时,数据同步机制会将数据同步到其他服务器上,保证数据的完整性和准确性。

五、Cluster集群的应用场景1. 大规模数据处理:Cluster集群可以将大规模的数据分割成多个小数据块,分配给不同的服务器进行并行处理,提高数据处理的效率。

VCS安装配置步骤

VCS安装配置步骤

V C S安装配置步骤 Prepared on 24 November 2020Veritas Cluster Server安装配置指导(针对SYBASE应用)说明:以下所有截取图形中所有名称、IP地址等均为截图时状态,请参照实际情况修改。

一.安装前准备工作1.心跳网卡配置安装VCS需要服务器有两块网卡直接连接作心跳侦测用。

两块网卡不使用任何WINDOWS 系统自带的协议,所以要将网卡属性中所有已勾选的选项去掉:为便于安装和维护,最好将两网络连接名称更换为易于识别的名称(如priv1和priv2)。

2.域配置安装VCS需要在两台服务器配置成域控制器(一主一备,或一台为主域控制器,另一台直接加入到该域)。

同时安装DNS(域名解析系统)。

同时最好配置一下WINS地址打开运行,填入dcpromo:安装域完成后重新启动。

配置添加上网方法4.磁盘阵列配置首先在磁盘阵列柜上创建RAID5,同时设置一个热备盘。

完成后将磁盘分两个区,同时做两个主机通道(HOST LUN)。

在每台服务器上进行如下配置:进入SCSI卡配置窗口,选择通道,进入配置视图的Advanced设置,将SCAN SCSI设备选项DISABLE或SCAN…ONLY。

目的是服务器启动时不进行SCSI设备检测,以免出错二.软件安装安装首先插入安装介质,出现安装向导:我们选择“Storage Foundation HA for windows”;在此,我们选择“Complete/Custom”选项;接着,点击“Next”;认真阅读软件许可协议后选择“I accept the terms of the license agreement”继续;输入license key,点“ADD”,然后NEXT;选中“VERITAS Storage Foundation HA for Windows”,点击“Next”;此处,是选择需要安装的Agent,选择后点“Next”;选择需要安装VCS的服务器,点击“ADD”,然后选择安装目录,默认为:c:\program files\veritas\,点“Next”继续;屏幕显示安装选项报告。

惠普双机双控容错系统简介

惠普双机双控容错系统简介

惠普双机双控容错系统简介近年来随着计算机技术的飞速发展,服务器的性能有了大幅度的提升,服务器作为处理关键性事物的业务主机已随处可见。

对于要求有高可用性和高安全性的系统,比如金融、邮电、交通、石油、电力、保险、证券等行业,用户提出了系统容错的要求。

惠普公司根据用户这一要求,推出了惠普双机双控容错系统方案。

用二台服务器共同工作,当一台服务器的系统出现故障时,另一台服务器可确保系统正常运行,从而将系统风险降低到最低限度,保障了系统的高可靠性、高安全性和高可用性。

惠普双机双控容错系统技术基础为近年来成熟起来的Cluster集群技术。

Cluster集群技术出发点是提供高可靠性、可扩充性和抗灾难性。

惠普双机双控容错系统解决方案重点在提供高可靠性和高安全性,Cluster集群技术为此提供了技术上的保证。

惠普公司为金融、邮电、交通、石油、电力、保险、证券等需要安全运行的系统度身定作了基于Cluster集群技术的双机双控容错系统方案。

Cluster集群技术Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。

此单一系统为客户工作站提供高可靠性的服务。

Cluster大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。

Cluster 必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster中加入组件。

一个Cluster包含多台(至少二台)拥有共享数据储存空间的服务器。

任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。

每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上。

Cluster内各节点服务器通过一内部局域网相互通讯。

当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。

当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。

当以上任一故障发生时,客户将能很快连接到新的应用服务上。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

双服务器加磁盘阵列柜CLUSTER集群模式配置
配置环境:两台服务器(Server1, Server2)连接一个PV220S磁盘阵列柜。

1. 将PV220系列阵列柜上的拔动开关打到CLUSTER模式, 这个开关如果是开机时改的, 需重启一次盘柜更改才能生效。

开关的位置在盘柜背面中间的一块卡上。

2. 连接两个服务器与磁盘阵列柜的连线:两个服务器需各配一块阵列卡,各连接一根SCSI线到盘柜后面的EMM卡上。

如果服务器上的阵列卡是双通道的,两个服务器连接SCSI线的通道要一致。

(如果Server1是连接通道1,则Server2也需要连接通道1)
注:服务器连接内部硬盘与连接外部阵列柜不能使用同一块RAID卡,如果服务器没有板载的阵列控制器,本机硬盘也要做阵列的话,则需要配置两块阵列卡。

Adapter,将Disable BIOS改成Enable BIOS, 这个选项是将RAID的启动BIOS选项关闭,目的是不从这块RAID启动操作系统(页面上会显示是ENABLE BIOS,实际上BIOS已经被DISABLE了)。

3. 启动Server1, 第二节点服务器为Server2),按Ctrl + M进入RAID控制器的BIOS,选择Object
4. 将Cluster Mode设置为Enable, 服务器会重启。

重启过后再按Ctrl + M进入RAID卡的BIOS,将RAID控制器的Initiator ID设为7(默认即为7)。

New Configuration配置盘柜硬盘的阵列。

(注:此选项会清除原盘柜上所有的阵列信息。

) 5. 配置磁盘阵列:退到第一层菜单,选择Configure
Adapter,将显示的Disable BIOS改成Enable BIOS。

6. Server1关机,启动Server2, 按Ctrl + M 进入RAID控制器的BIOS,选择Object
7. 将Cluster Mode设置为Enable,服务器会重启。

重启过后再按Ctrl + M进入RAID卡的BIOS,将RAID控制器的Initiator ID(默认为7)改为6。

(Server1设为6,Server2为7也可以,目的是只要两台服务器的ID不一致就行)
View Disk,在选择了Vidw/Add Configuration时,系统会提示两个选择View Disks或者是
View NVRAM, 这时要选择View Disk, 检查所有的阵列配置是否与Server1相同,确认无误时按Esc,系统会提示是否要保存,选择”Yes”保存。

因为硬盘上的阵列已经在Server1上配好,所以这里不需要重新配置,只要把硬盘上的阵列信息读出来再保存到RAID卡上就可以了。

View/Add Configuration 8. 读取磁盘阵列信息:退到第一层菜单,选择Configure
9. 这时硬件过程配置完毕!。

相关文档
最新文档