高可用集群模块
高可用集群 三节点原理
![高可用集群 三节点原理](https://img.taocdn.com/s3/m/22bbd033f342336c1eb91a37f111f18583d00c82.png)
高可用集群三节点原理高可用集群是一种分布式计算系统,它通过将多个节点(一般为三个节点)连接在一起,以实现数据的冗余备份和资源的共享,从而提高系统的可用性和容错能力。
下面将介绍三节点高可用集群的工作原理。
在三节点高可用集群中,每个节点都是一台独立的服务器,具备相同的硬件和软件配置。
这三个节点通过高速网络互连,并通过软件共享存储来实现数据的同步和共享。
集群中的节点可以分为两个角色:主节点(Primary)和备节点(Secondary)。
在正常运行状态下,主节点负责处理客户端请求,并将数据同步至备节点。
同时,备节点以热备份的形式,实时复制主节点的数据和状态。
这样,在主节点发生故障或不可用时,备节点可以立即接管并继续提供服务,实现故障的无缝切换。
为了确保高可用性和数据一致性,集群采用了心跳机制和共享存储的方式。
心跳机制用于监控节点的状态,每个节点定期发送心跳信号以及当前节点的状态信息给其余节点。
如果主节点的心跳信号长时间未接收到,备节点可以判断主节点已经失效,并将自己切换为主节点运行。
共享存储用于存储集群的数据,主节点和备节点通过共享存储来实现数据的同步,确保数据在节点之间的一致性和可用性。
除了故障切换外,三节点高可用集群还可以进行软件和硬件的维护操作,如升级、扩容、修复等,而不会中断用户的访问。
这是因为在进行维护操作时,可以通过将一个节点切换到维护模式,并将其任务和数据迁移到其他节点上,再进行相应的操作。
维护完成后,将节点切换回正常模式,实现集群的无缝恢复。
综上所述,三节点高可用集群通过节点之间的数据同步和故障切换,提高了系统的可用性和容错能力。
它可以保证在主节点故障或维护时,集群可以继续正常提供服务,从而保证系统的稳定性和可靠性。
WEB服务器设计
![WEB服务器设计](https://img.taocdn.com/s3/m/99595bcf4793daef5ef7ba0d4a7302768f996f7e.png)
WEB服务器设计随着互联网的发展和普及,WEB服务器在我们的生活中扮演着越来越重要的角色。
WEB服务器作为一个关键的网络设备,起到了连接用户和互联网资源的桥梁作用。
针对这一需求,本文将探讨WEB服务器的设计原则以及一些实用的技术。
一、WEB服务器的功能与特点WEB服务器主要用于处理和响应用户的HTTP请求,并返回相应的网页或其他资源。
具体来说,WEB服务器的功能包括但不限于以下几个方面:1. 静态资源的传输和存储WEB服务器负责接收用户的HTTP请求,根据请求的路径定位到相应的静态资源,并将资源传输给用户。
静态资源包括HTML页面、CSS样式表、JavaScript脚本以及其他常见的文件格式。
2. 动态内容的处理WEB服务器还要能够处理包含动态内容的请求。
这些请求会经过服务器的处理和计算,生成不同于静态资源的响应结果,如动态生成的网页、数据操作等。
3. 连接管理WEB服务器需要管理大量的用户连接,并保持这些连接的稳定性和高效性。
它需要实现连接的建立和维护,解决高并发和流量压力带来的问题。
WEB服务器的设计要符合以下特点:1. 高可用性WEB服务器需要设计成高可用的,即能提供稳定的服务,并快速响应用户的请求。
为此,可采用集群、冗余备份等技术手段,确保在服务器宕机或故障时能够无缝切换至备用服务器。
2. 高性能WEB服务器需要提供高性能的服务,以应对大量并发的请求。
通过使用并行处理、负载均衡等技术,可以提升服务器的性能,并减少响应时间。
3. 安全性WEB服务器需要保障用户数据的安全性和服务器的防护。
采用有效的安全策略,如HTTPS协议、防火墙、安全审计等措施,可以有效防范网络攻击和数据泄露。
二、WEB服务器的设计原则在设计WEB服务器时,需要遵循一些基本的原则,以确保服务器的稳定性和可扩展性。
1. 模块化设计将WEB服务器拆分为多个独立的模块,每个模块负责特定的功能。
这样可以提高代码的可维护性和可复用性,并使系统更加灵活和可扩展。
中标麒麟高可用集群软件(龙芯版)V7.0 产品白皮书说明书
![中标麒麟高可用集群软件(龙芯版)V7.0 产品白皮书说明书](https://img.taocdn.com/s3/m/38c5bcb0bb0d4a7302768e9951e79b8968026823.png)
中标软件有限公司
目录
目录
目录 ...................................................................................................................................................i 前言 ..................................................................................................................................................v 内容指南 ........................................................................................................................................vii 中标麒麟高可用集群产品介绍....................................................................................................... 9 1 概述 ............................................................................................................................................ 11
第 i 页 / 共 54 页
软件开发知识:利用集群技术构建高可用性的系统
![软件开发知识:利用集群技术构建高可用性的系统](https://img.taocdn.com/s3/m/32647272e418964bcf84b9d528ea81c758f52e94.png)
软件开发知识:利用集群技术构建高可用性的系统随着互联网技术的不断发展,越来越多的企业和组织都在构建自己的高可用性系统,以保证业务的稳定性和数据的安全性。
其中的关键技术之一就是集群技术,通过多台服务器的联合工作,实现高可用性的系统构建。
本文将从以下四个方面深入阐述集群技术构建高可用性系统的要点和步骤。
首先,介绍集群技术的基本概念和原理。
其次,探讨如何利用集群实现系统的负载均衡和故障转移,同时介绍相关的软件和工具。
第三,详细解释如何选用适合的硬件设备和网络结构来搭建集群系统。
最后,对常见的集群系统故障进行分析,提出应对方法。
一、集群技术概述集群技术是一种将多台计算机联合起来构成一个高性能、高可用性、高扩展性的计算机系统的技术。
集群系统通常由多个相互独立的服务器节点组成,节点之间通过特定的网络通信协议进行数据的交换和共享。
在集群系统中,任何一个计算机节点都可以以工作节点的身份进入到整个集群体系中,从而实现任务的分配和执行。
而整个集群系统也可以通过编程、配置等方式实现负载均衡和故障转移,从而提高系统的可用性和稳定性。
二、集群技术实现高可用性系统的原理和步骤2.1负载均衡负载均衡是集群技术中最基本的概念之一。
在一个系统或服务中,用户的请求往往是随机分布的,不同请求的负载也会有所差异。
而通过负载均衡技术,可以将不同请求分配到不同计算机节点中进行处理,从而实现系统的负载均衡。
负载均衡可以分为硬件负载均衡和软件负载均衡两种类型。
硬件负载均衡一般采用专用网络交换机或路由器来实现,比如F5、NetScaler等;而软件负载均衡通常采用虚拟网络设备或软件来实现,比如Nginx、HAProxy等。
2.2故障转移故障转移指在集群系统中,如果某个节点出现了故障,如何及时将请求转发到其他节点,以保证系统的可用性和稳定性。
故障转移也可以分为硬件故障转移和软件故障转移两种类型。
硬件故障转移一般采用专用的硬件设备或热插拔设备来实现,比如磁盘阵列设备或高可用性存储系统。
高可用,多路冗余GFS2集群文件系统搭建详解
![高可用,多路冗余GFS2集群文件系统搭建详解](https://img.taocdn.com/s3/m/53dc6923b80d6c85ec3a87c24028915f804d84b1.png)
⾼可⽤,多路冗余GFS2集群⽂件系统搭建详解⾼可⽤,多路冗余GFS2集群⽂件系统搭建详解2014.06标签:实验拓扑图:实验原理:实验⽬的:通过RHCS集群套件搭建GFS2集群⽂件系统,保证不同节点能够同时对GFS2集群⽂件系统进⾏读取和写⼊,其次通过multipath 实现node和FC,FC和Share Storage之间的多路冗余,最后实现存储的mirror复制达到⾼可⽤。
GFS2:全局⽂件系统第⼆版,GFS2是应⽤最⼴泛的集群⽂件系统。
它是由红帽公司开发出来的,允许所有集群节点并⾏访问。
元数据通常会保存在共享存储设备或复制存储设备的⼀个分区⾥或逻辑卷中。
实验环境:1 2 3 4 5 6 7 8[root@storage1 ~]# uname -r2.6.32-279.el6.x86_64[root@storage1 ~]# cat /etc/redhat-releaseRed Hat Enterprise Linux Server release 6.3 (Santiago) [root@storage1 ~]# /etc/rc.d/init.d/iptables status iptables: Firewall is not running.[root@storage1 ~]# getenforceDisabled实验步骤:1、前期准备⼯作0)、设置⼀台管理端()配置ssh 私钥、公钥,将公钥传递到所有节点上12 3 4 5 6 7 8 9 10 11 12 13 14[root@manager ~]# ssh-keygen \\⽣成公钥和私钥Generating public/private rsa key pair.Enter file in which to save the key (/root/.ssh/id_rsa):Enter passphrase (empty for no passphrase):……[root@manager ~]# for i in {1..6}; do ssh-copy-id -i 192.168.100.17$i; done \\将公钥传输到各节点/root/.ssh/⽬录下root@192.168.100.171's password:Now try logging into the machine, with "ssh '192.168.100.171'", and check in:.ssh/authorized_keysto make sure we haven't added extra keys that you weren't expecting..……[root@manager ~]# ssh node1 \\测试登录Last login: Sat Jun 8 17:58:51 2013 from 192.168.100.31[root@node1 ~]#1)、配置双⽹卡IP,所有节点参考拓扑图配置双⽹卡,并配置相应IP即可1 2 3 4 5[root@storage1 ~]# ifconfig eth0 | grep "inet addr" | awk -F[:" "]+ '{ print $4 }' 192.168.100.171[root@storage1 ~]# ifconfig eth1 | grep "inet addr" | awk -F[:" "]+ '{ print $4 }' 192.168.200.171……2)、配置hosts⽂件并同步到所有节点去(也可以配置DNS,不过DNS解析绝对不会有hosts解析快,其次DNS服务器出问题会直接导致节点和节点以及和存储直接不能够解析⽽崩溃)12 3 4 5 6 7 8 9[root@manager ~]# cat /etc/hosts127.0.0.1 localhost 192.168.100.102 manager 192.168.100.171 storage1 192.168.200.171 storage1 192.168.100.172 storage2 192.168.200.172 storage2 192.168.100.173 node1 192.168.200.173 node1 192.168.100.174 node2 9 10 11 12 13 14 15 16 17 18 19 20 21 22192.168.100.174 node2 192.168.200.174 node2 192.168.100.175 node3 192.168.200.175 node3 192.168.100.176 node4 192.168.200.176 node4 [root@manager ~]# for i in {1..6}; do scp /etc/hosts 192.168.100.17$i:/etc/ ; done hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:00 hosts 100% 591 0.6KB/s00:003)、配置yum源(将所有节点光盘挂接到/media/cdrom,如果不⽅便,也可以做NFS,将镜像挂载到NFS⾥⾯,然后节点挂载到NFS共享⽬录中即可,注意:不同版本的系统,RHCS集群套件存放位置会有所不同,所以yum源的指向位置也会有所不同)1234 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38[root@manager ~]# cat /etc/yum.repos.d/rhel-gfs2.repo[rhel-cdrom]name=RHEL6U3-cdrombaseurl=file:///media/cdromenabled=1gpgcheck=0[rhel-cdrom-HighAvailability]name=RHEL6U3-HighAvailabilitybaseurl=file:///media/cdrom/HighAvailabilityenabled=1gpgcheck=0[rhel-cdrom-ResilientStorage]name=RHEL6U3-ResilientStoragebaseurl=file:///media/cdrom/ResilientStorageenabled=1gpgcheck=0[rhel-cdrom-LoadBalancer]name=RHEL6U3-LoadBalancerbaseurl=file:///media/cdrom/LoadBalancerenabled=1gpgcheck=0[rhel-cdrom-ScalableFileSystem]name=RHEL6U3-ScalableFileSystembaseurl=file:///media/cdrom/ScalableFileSystemenabled=1gpgcheck=0[root@manager ~]# for i in {1..6}; do scp /etc/yum.repos.d/rhel-gfs2.repo 192.168.100.17$i:/etc/yum.repos.d ; done rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00rhel-gfs2.repo 100% 588 0.6KB/s00:00[root@manager ~]# for i in {1..6}; do ssh 192.168.100.17$i "yum clean all && yum makecache"; doneLoaded plugins: product-id, security, subscription-managerUpdating certificate-based repositories.Unable to read consumer identity……4)、时间要同步,可以考虑配置NTP时间服务器,如果联⽹可以考虑同步互联⽹时间,当然也可以通过date命令设置相同时间。
Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册
![Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册](https://img.taocdn.com/s3/m/a6c7c3d09ec3d5bbfd0a74dd.png)
Linux平台Apache双机高可用集群+ Tomcat负载均衡集群配置手册在这个配置手册中,使用的操作系统和软件清单如下:操作系统:RedHat Enterprise Linux AS4 U4 64bit(安装时最好选择完全安装)软件:jdk-1_5_0_15-linux-amd64.binTomcat5.5.26httpd-2.0.63.tar.gzjakarta-tomcat-connectors-jk2-src-current.tar.gzipvsadm-1.24.tar.gzlibnet.tar.gzheartbeat-2.1.3-3.el4.centos.x86_64.rpmheartbeat-pils-2.1.3-3.el4.centos.x86_64.rpmheartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm因为是linux操作系统,所以在安装软件时请使用对应自己操作系统内核的软件,这是整个集群成功的第一步。
本配置手册中的软件都是对应RedHat Enterprise Linux AS4 U4 64bit 这个版本的软件。
jdk-1_5_0_15-linux-amd64.binJAVA环境包使用的是64位1.5版Tomcat版本为公司指定的5.5版本Apache为2.0.63版jakarta-tomcat-connectors-jk2-src-current.tar.gz是连接Apache和Tomcat的连接插件,具体可以去Tomcat网站上查找下载ipvsadm-1.24.tar.gzlibnet.tar.gz这两个是用于2台Apache服务器虚拟一个IP地址使用heartbeat-2.1.3-3.el4.centos.x86_64.rpmheartbeat-pils-2.1.3-3.el4.centos.x86_64.rpmheartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm这3个软件是用于2台Apache服务器之间的心跳检测结构图Apache1以以以以以Tomcat1Tomcat2Apache22台Tomcat服务器使用Tomcat软件可以自己做集群,2台Apache服务器需要其他的软件实现虚拟服务器功能,工作站访问虚拟IP地址访问2台Apache服务器,再通过Apache服务器访问Tomcat服务器第3 页总13 页1.安装JAVA环境包1)输入命令:./ jdk-1_5_0_15-linux-amd64.bin执行完毕后,会在当前目录下生成一个JDK-1.5.0_15的文件夹2)在 /usr/local/下新建一个名字为JAVA文件夹,将个JDK-1.5.0_15的文件夹拷入到该文件夹下3)设置环境变量。
LanderVault容灾统一管理平台
![LanderVault容灾统一管理平台](https://img.taocdn.com/s3/m/ddb8bd6b783e0912a2162aa5.png)
什么是容灾集中管理平台LanderVault 核心业务容灾集中管理平台定位于保障企业级核心应用与数据安全,通过最大程度缩短企业核心业务停顿及全面保护企业重要数据安全,达到减小企业重要信息资产损失的目的。
一体化容灾解决方案LanderVault是一款集合高可用集群、数据复制、备份和系统容灾等功能于一体的数据安全产品集,定位于保障企业级核心应用与数据安全,通过最大程度缩短企业核心业务停顿及全面保护企业重要数据安全,达到减小企业重要信息资产损失的目的,是先进的一体化智能安全管理平台综合性解决方案。
核心业务容灾集中管理平台LanderVault管理平台基于Java虚拟机的跨平台管理端,将用户的关键业务按照业务逻辑分组管理,在一个控制台上能方便地部署数据安全产品,随时监控主机系统信息、网络信息、存储信息、进程信息和服务等信息,可以对数据安全产品进行管理及控制。
LanderVault容灾管理平台主要实现如下功能:集中管理远程管理跨平台管理管理和监控服务器管理和配置集群软件管理和配置复制软件管理和配置备份软件管理和配置容灾软件管理事务日志管理系统告警(邮件,声音,短消息)管理许可证数据安全系列产品包括如下模块:LanderVault:集中管理平台LanderCluster:高可用集群模块LanderReplicator:网格化数据复制模块LanderBackup:数据备份模块LanderDisaster:数据容灾模块每个模块都可以作为独立产品销售。
高可用集群模块:LanderClusterLanderVault体系中全新的高可用集群模块负责全面监控及保障用户核心应用,应用创造性的“故障分级”概念和独特的“故障预警”功能,在核心系统处于危险的状态下及时发出“警告”,并在必要的情况下自动执行精确而迅速的故障隔离及应用转移,保障用户核心应用7×24小时持续可靠运作,可支持多达256个节点的应用。
数据复制模块:LanderReplicatorLanderVault体系中的数据复制模块为您提供基于网格化的数据同步复制及数据可实时回放的CDP功能,无需购入任何其它设备就可以在现有系统中使用,从而为您节省成本。
HA
![HA](https://img.taocdn.com/s3/m/818296c75fbfc77da269b168.png)
HA 3.0 说明——by mzhaoHA概论 (2)HA3.0结构 (4)安装 (6)配置 (8)主机配置 (8)Heartbeat配置 (8)pacemaker配置 (9)Pacemaker详解 (12)参考资料 (13)HA概论高可用集群,英文原文为High Availability Cluster,简称HA Cluster,是指以减少服务中断(如因服务器宕机等引起的服务中断)时间为目的的服务器集群技术。
简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。
这些单个的计算机系统就是集群的节点(node)。
高可用集群的出现是为了使集群的整体服务尽可能可用,从而减少由计算机硬件和软件易错性所带来的损失。
它通过保护用户的业务程序对外不间断提供的服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度。
如果某个节点失效,它的备援节点将在几秒钟的时间内接管它的职责。
因此,对于用户而言,集群永远不会停机。
高可用集群软件的主要作用就是实现故障检查和业务切换的自动化。
只有两个节点的高可用集群又称为双机热备,即使用两台服务器互相备份。
当一台服务器出现故障时,可由另一台服务器承担服务任务,从而在不需要人工干预的情况下,自动保证系统能持续对外提供服务。
双机热备只是高可用集群的一种,高可用集群系统更可以支持两个以上的节点,提供比双机热备更多、更高级的功能,更能满足用户不断出现的需求变化。
从这个定义可以看出,集群必须检测节点和服务何时失效,何时恢复为可用。
这个任务通常由一组被称为“心跳”的代码完成。
在Linux-HA里这个功能由一个叫做heartbeat的程序完成。
Heartbeat是Linux-HA工程的一个组件,自1999年开始到现在,发布了众多版本,是目前开源Linux-HA项目最成功的一个例子,在行业内得到了广泛的应用。
Heartbeat通过插件技术实现了集群间的串口、多播、广播和组播通信,在配置的时候可以根据通信媒介选择采用的通信协议,heartbeat启动的时候检查这些媒介是否存在,如果存在则加载相应的通信模块。
elasticsearch集群的高可用演练方案
![elasticsearch集群的高可用演练方案](https://img.taocdn.com/s3/m/b55a3dd5dc88d0d233d4b14e852458fb770b38a3.png)
elasticsearch集群的高可用演练方案Elasticsearch是一个分布式、可扩展、实时搜索与分析引擎,为了确保系统的高可用性,我们需要设计并演练一套高可用方案。
以下是一个针对Elasticsearch集群的高可用演练方案。
1. 分布式架构:为了提高系统的可靠性和性能,我们建议采用分布式架构。
将数据和负载分散在多个节点上,可以通过水平扩展来增加集群的容量和可用性。
2. 节点冗余:部署多个Elasticsearch节点以实现冗余。
在一个节点出现故障时,其他节点仍然可以提供服务。
通过使用主从复制机制,可以确保数据的备份和一致性。
3. 负载均衡:使用负载均衡器来分发请求可以减轻单个节点的压力,并确保请求可以均匀分布到所有可用节点上。
常用的负载均衡器有Nginx、HAProxy等。
4. 数据备份和恢复:定期进行数据备份是保证数据安全的重要措施。
使用Elasticsearch的快照和恢复功能,可以轻松地对数据进行备份和恢复,确保在数据丢失或节点故障的情况下能够迅速恢复。
5. 监控和预警:通过监控Elasticsearch集群的状态和性能指标,可以及时发现和解决潜在的问题。
设置合适的监控指标,并配置预警系统,可以及时通知管理员进行干预和修复。
6. 容量规划:根据业务需求和预估的数据增长率,合理规划集群的容量。
通过监控实时数据量和查询性能,及时扩展集群的规模,以确保集群能够满足业务需求。
7. 故障模拟与测试:定期进行故障模拟和测试可以验证高可用方案的有效性。
通过模拟节点故障、网络故障等情况,检验集群的自愈能力和恢复速度。
8. 文档和知识库:建立完备的文档和知识库,包括集群配置、操作手册、故障处理等内容。
提供培训和技术支持,让团队成员熟悉操作流程和解决常见问题的方法。
总结起来,高可用演练方案包括分布式架构、节点冗余、负载均衡、数据备份和恢复、监控和预警、容量规划、故障模拟与测试以及文档和知识库的建立。
浪潮BCP高可用软件模块产品简介
![浪潮BCP高可用软件模块产品简介](https://img.taocdn.com/s3/m/c6d115162379168884868762caaedd3383c4b549.png)
●多节点共享磁盘阵列,最多可支持32节点,保障客户投资不过时;●随开展业务按需添加节点,充分满足客户业务开展需要,保护客户投资的有效性;●支持IP-SAN,FC-SAN存储,灵活的部署环境;●多活泼模式,多节点可同时进行工作,充分利用资源,实现硬件资源的最大化利用;双节点镜像方案:●支持同步/异步差分复制,高效的复制,节省客户网络资源;●支持双活模式,双节点可同时进行工作,充分利用资源,实现硬件资源的最大化利用;●支持纯软双机,满足不同客户的环境需求;●可实现双机双存储方案,根据客户环境灵活部署;●不限存储品牌和类型;共享/镜像混合方案●支持在共享,镜像根底上的无缝升级,满足客户未来容灾需求,实现客户投资最大化;●共享/镜像混合模式,根据客户应用需要按需配置;●支持多活泼模式,多节点可同时工作,有效保护客户投资;●支持同城/远程双集群切换,满足客户容灾需求。
Infinity Storage System - BCP完善的监控体系:对于任何一款高可用集群产品,故障监视都是最核心的功能。
浪潮BCP软件提供二十多种独立的监视功能模块,包括对本地磁盘,共享存储,网络环境,操作系统,以及应用程序的效劳和进程等进行实时监控。
并且,BCP自身的效劳状态也被列为监视范围之内。
此外,为了时刻确保系统的完整有效,BCP同时也对待机效劳器的状态进行监控。
通过全方位的故障监视, BCP可以实时地掌握整个系统的软硬件资源的状态,这样,在系统发生故障时,就能够准确诊断,并及时进行恢复处理。
除了软硬件资源监视外,在系统中,效劳器之间还需要定期的互相检查对方的健康状态,我们形象地称之为心跳探测。
心跳探测主要通过网络来进行。
首选,是通过两台效劳器之间的私有网络连接行的,我们称之为私网心跳。
然后在私网发生故障时,将公网作为备份心跳方式。
并且,我们利用内核空间进行心跳探测的技术,可以保证心跳探测不受系统负荷影响,从而防止在高负荷状态下心跳超时所导致的误切换。
多节点高可用集群解决方案
![多节点高可用集群解决方案](https://img.taocdn.com/s3/m/b3c2ba47be1e650e52ea99cd.png)
7/7
4/7
Skyge Multi-Node HA 高可用集群解决方案
2.2、基于数据镜像技术的高可用解决方案
通常在高可用软件中,为了保持数据一致性,不同的节点需要共享磁盘阵列。但是对于 很多系统来说, 一个磁盘阵列的造价太过昂贵。 因此出现了通过软件来实现共享数据的镜像 技术。在 Skyge Multi-Node HA 的高可用产品中,使用基于数据镜像技术的软件方式来实现 共享数据的同步。 DRBD(全称为:Distributed Replicated Block Device)是在 Linux 系统中一种基于 磁盘的网络镜像软件。DRBD 的基本原理相当简单,那就是把两台机器的两块磁盘通过网络 连接在一起,形成一个 RAID1 系统。两块磁盘的数据在任何时刻都保证是一致的。DRBD 负 责接收数据,把数据写到本地磁盘,然后发送给另一个主机。另一个主机再将数据存到自己 的磁盘中。DRBD 是由内核模块和相关用户态程序构成,用以构建高可用性的集群。其实现 方式是通过网络来镜像整个设备。 它允许用户在远程机器上建立一个本地块设备的实时镜像。 与心跳连接结合使用,也可以把它看作是一种网络 RAID。DRBD 的实现原理图,如下图 3:
图 3-DRBD 的实现原理
这种不需要共享存储的纯软高可用性解决方案,要节约很多成本,因为在价格上 IP 网 络要比专用的存储网络经济的多。
5/7
Skyge Multi-Node HA 高可用集群解决方案
图 4-基于数据镜像技术(DRBD)的高可用工作模式
解决方案优点:
系统切换时间短,最大程度减少业务中断的影响。 切换过程对应用程序无影响,无需重新启动或登录,做到无人值守。 不需要磁盘阵列,具有较高的性能价格比。 高效成熟的多种镜像方式,支持完全镜像、差分镜像。 最佳化的按需复制,支持自定义复制数据集。HA 的数据镜像是基于文件系统之上的以 字节为单位的按需复制,充分保证了系统性能和效率的最佳化。 消除备份窗口。 备份时可以使备机写入暂停或主机传输暂停, 在主机应用在线持续运行 的情况下,通过备机对数据进行备份操作。 支持丰富的应用配置,如:数据库应用 Oracle、DB2、Sybase、MySQL 等,文件服务应 用 NFS、SMB/CIFS 等,WEB 应用 Apache 等,商业应用 Websphere、Weblogic 等。 对服务器硬件配置要求较低, 且互备方式有效分摊系统负载, 可充分提高服务器硬件资 源的利用率。 简洁直观的管理工具,体贴的应用配置向导支持,便于维护管理。
高可用架构设计:解决单点故障与负载均衡
![高可用架构设计:解决单点故障与负载均衡](https://img.taocdn.com/s3/m/25acfa54640e52ea551810a6f524ccbff021ca67.png)
高可用架构设计:解决单点故障与负载均衡高可用架构设计是指通过合理的系统设计与架构来解决单点故障和负载均衡问题,从而提高系统的可用性和稳定性。
在现代互联网应用中,高可用性是一个非常重要的考量因素,因为任何系统的中断都会带来严重的损失。
在设计高可用架构时,首先需要考虑的是如何解决单点故障问题。
单点故障是指系统中的某一部分发生故障导致整个系统无法正常工作。
为了解决单点故障,可以采取以下几种策略:1.负载均衡:负载均衡是指将请求分发到多个服务器上,以实现请求的均衡分配。
通过负载均衡的方式,即使其中一个服务器出现故障,其他服务器仍然可以继续提供服务,从而避免了单点故障的发生。
常见的负载均衡方式包括:DNS负载均衡、硬件负载均衡器、软件负载均衡、反向代理等。
2.分布式架构:将系统按照不同的功能模块进行拆分,分布到不同的服务器上,不同的服务器之间相互协作,提供完整的服务。
这样一来,即使其中一个模块发生故障,其他模块仍然可以正常工作,从而实现系统的高可用。
3.数据冗余:在分布式架构中,数据冗余是一种常见的技术手段。
数据冗余就是将数据复制到多个节点上,保证数据的可靠性和可用性。
当其中一个节点出现故障时,其他节点仍然可以提供服务。
常见的数据冗余机制包括主备复制、多主复制、主从复制等。
除了解决单点故障问题,负载均衡也是高可用架构设计中的关键考虑因素之一。
负载均衡可以将请求按照一定的规则分发到多个服务器上,以实现请求的均衡分配,提高系统的吞吐量和响应速度。
负载均衡的策略可以根据实际情况选择,如轮询、权重、最少连接数等。
常见的负载均衡技术包括硬件负载均衡器、软件负载均衡、反向代理等。
除了以上的策略,还有一些其他的方法可以提高系统的可用性和稳定性:1.集群:通过将多台服务器组成集群,共同处理请求,从而提高系统的可用性和性能。
集群可以通过多种方式实现,如主-从复制、主-主复制、无共享存储等。
2.异地多活:在不同的地理位置上部署多个节点,每个节点提供独立的服务,通过将请求路由到最近的节点,从而提高系统的可用性和性能。
VMware vSphere 5.1 高可用性 ---- 群集、HA、DRS、FT
![VMware vSphere 5.1 高可用性 ---- 群集、HA、DRS、FT](https://img.taocdn.com/s3/m/3bb17afaa45177232e60a228.png)
VMware vSphere 5.1 高可用性在本节中主要讲的是集群的一些功能和配置,相比5.0的设置,没有太大的变化。
VMware vSphere为虚拟机提供虚拟化的基础架构,将现有的物理资源转化成虚拟资源,将物理资源分成若干资源,为每个虚拟机提供包括CPU、内存等虚拟资源。
要想很好地分配这些资源,就必须要使用资源池。
资源池是灵活管理资源的逻辑抽象。
资源池可以分组为层次结构,用于对可用的CPU 和内存资源按层次结构进行分区。
群集中的资源池比单个ESXi主机上的还要重要,因为在群集中创建资源之后,整个资源池管理的就是所有的ESXi主机资源了。
所管理的资源是所有ESXi主机上的CPU和内存的资源总和。
高可用性和双机热备是VMware vSphere 5.1最重要的一部分,高可用并不是vSphere独有的,企业使用高可用就是为了服务的连续性和数据的安全性,HA是以一群ESXi服务器为主的群集功能,主要是目的是当虚拟机运行的主机发生故障时能及时转移主机,避免长时间的停机。
而FT双机热备则是保证虚拟机最长时间不停机,将虚拟机以双机热备的方式同时在两台主机运行,大大增强了业务的可连续性。
本节中主要讲的是讲的一下内容:一、建立群集二、设置HA高可用性三、测试HA高可用性四、设置DRS五、建立FT双机热备无论是计划停机时间还是非计划停机时间,都会带来相当大的成本。
但是,用于确保更高级别可用性的传统解决方案都需要较大开销,并且难以实施和管理。
VMware 软件可为重要应用程序提供更高级别的可用性,并且操作更简单,成本更低。
使用vSphere,组织可以轻松提高为所有应用程序提供的基准级别,并且以更低成本和更简单的操作来实现更高级别的可用性。
使用vSphere,可以独立于硬件、操作系统和应用程序提供更高可用性,减少常见维护操作的计划停机时间,在出现故障时提供自动恢复。
vSphere 可以减少计划的停机时间,防止出现非计划停机,并迅速从断电中恢复。
联鼎软件技术 LanderVault 集群模块 LanderCluster 6 产品技术手册
![联鼎软件技术 LanderVault 集群模块 LanderCluster 6 产品技术手册](https://img.taocdn.com/s3/m/20705b02f78a6529647d5391.png)
产品技术手册高可用产品技术白皮书LanderVault 集群模块LanderCluster 6Copyright 1999’-2008’ Lander Software Corporation. All rights reserved.本手册简明阐述了系统及方案基本特性与说明版权所有联鼎软件技术有限公司目录1集群(高可用)概述 (1)1.1高可用的基本概念 (1)1.1.1高可用技术中的几个术语 (1)1.1.2分析用户的可用性需求 (2)1.1.3选择一个解决方案 (2)1.2高可用是业务的需求 (2)1.2.1高可用是一种保障 (2)1.2.2高可用存在商机 (3)1.3高可用系统的衡量标准 (3)1.3.1可用性计算 (3)1.3.2期望运行时间 (3)1.3.3计算平均故障间隔时间 (4)1.4实现高可用的难点 (4)1.4.1高可用计算实现的难点 (4)1.4.2Duration of Outage (损耗时间) (4)1.4.3系统损耗的时间分析 (4)1.4.4造成非计划宕机的原因 (5)1.4.5非计划宕机的损害 (5)1.5高可用准备 (5)1.5.1定义高可用目标 (5)1.5.2建立相应的高可用物理环境 (6)1.5.3建立自动的处理流程 (6)1.5.4开发及测试环境 (6)1.5.5按照需求配置硬件 (6)1.5.6定义操作流程 (6)1.5.7灾难恢复准备 (6)1.5.8管理员的培训 (6)1.5.9记录每一个细节 (7)1.5.10高可用系统实现的要点 (7)1.5.11底层硬件的可靠性 (7)1.5.12软件的品质 (7)1.5.13集群技术服务 (7)1.6集群避免单点故障 (7)1.6.1单点故障 (8)1.6.2避免电源的单点故障 (8)1.6.3避免硬盘的单点故障 (8)1.6.4通过磁盘阵列(RAID)保护数据安全 (9)1.7认识SAN存储结构 (11)1.7.1存储区域网介绍 (11)1.7.2SAN的优势 (12)1.7.3SAN的适用环境 (13)1.7.4存储区域网(SAN)的特点 (13)1.7.5SAN存储系统五大组成 (13)1.8认识ISCSI存储结构 (13)1.8.3技术优势 (13)1.964位技术 (14)1.10虚拟化 (14)1.10.1纯软件虚拟化 (14)1.10.2CPU虚拟化技术 (15)1.10.3文件虚拟化 (15)1.10.4存储虚拟化 (15)1.10.5虚拟主机 (16)1.11刀片服务器 (16)1.12避免系统处理单元单点故障 (16)1.12.1单机高可用的实现 (16)1.12.2通过集群来避免单点故障 (16)1.13几种类型存储技术介绍 (17)1.13.1DAS-直接连接存储 (17)1.13.2NAS-网络连接存储 (17)1.13.3SAN-存储区域网络 (18)1.13.4SAS-串行SCSI技术 (18)2LanderCluster概述 (20)2.1LanderCluster的版本情况 (20)2.2LanderCluster的体系结构 (20)2.2.1执行树模型(Execute Tree Model) (20)2.2.2执行对象模型Execute Object Model (21)2.2.3监控对象模型Monitor Object Model (21)2.2.4事件对象模型Event Object Model (21)2.2.5集群原理模型Cluster Elements Model (21)2.2.6关键技术 (21)2.3LanderCluster集群系统工作原理 (22)2.4LanderCluster集群系统监控原理 (22)2.4.1网络状态监控 (22)2.4.2应用监控 (22)2.4.3集群软件运行状态监控 (23)2.4.4存储子系统监控 (23)2.5LanderCluster集群系统的特性 (23)2.5.1系统健康与可用性评价体系 (23)2.5.2前瞻预警体系 (23)2.5.3故障分级处理 (23)2.5.4深度应用侦测代理(User Application Agent) (24)2.5.5支持虚拟化环境 (24)2.5.6采用任务提交、确认机制 (24)2.5.7集群配置安装维护简单 (24)2.5.8管理员密码验证 (24)2.5.9集群软件自身监控功能 (24)2.5.10对应用程序的灵活监控功能 (24)2.5.11支持多台服务器集群方式 (25)2.5.14支持更多存储环境包括ISCSI (25)2.5.15支持多种应用系统 (25)2.5.16LanderCluster灵活性 (25)2.5.17中英文管理界面可根据需要选择 (25)2.5.18创新支持跨平台系统集群 (25)2.6LanderCluster版本比较 (26)3LanderCluster规划技术要点 (27)3.1LanderCluster硬件配置概述 (27)3.2集群设备选型要点 (27)3.3LanderCluster简单双机集群环境 (28)3.4LanderCluster复杂双机集群环境 (28)3.4.1对等双机(Active/Active) (29)3.4.2双机双柜 (29)3.4.3异地双机(容灾) (30)3.4.4纯软件双机 (30)3.5LanderCluster多节点集群环境 (30)3.5.1多节点- 多备一 (31)3.5.2多节点-多机互备 (31)4附录 (32)4.1运行LanderCluster的系统需求 (32)4.2典型解决方案 (32)1 集群(高可用)概述在学习使用LanderCluster集群软件包之前,必须对集群技术中的一些概念有所了解,这样才能帮助我们更好的掌握LanderCluster的原理、安装设置和管理。
ha 介绍
![ha 介绍](https://img.taocdn.com/s3/m/ad3cca739b6648d7c0c74606.png)
1 介绍高可用集群是指一组通过硬件和软件连接起来的独立计算机,它们在用户面前表现为一个单一系统,在这样的一组计算机系统内部的一个或者多个节点停止工作,服务会从故障节点切换到正常工作的节点上运行,不会引起服务中断。
从这个定义可以看出,集群必须检测节点和服务何时失效,何时恢复为可用。
这个任务通常由一组被称为“心跳”的代码完成。
在Linux-HA里这个功能由一个叫做heartbeat的程序完成。
他是为Linux提供的一种高可用性的解决方案high availability (clustering)。
目的:提高服务的可靠性、可用性和可维护性2 原理下图为HA的网络结构图。
注释:公网接入:主从服务器通过公网通信心跳连线:主从服务器通过专用网络通信,专用网络可用以太网的交叉线连接,也可用串口连接监测。
VIP:集群通过VIP与公网通信,主从通过公网网卡上邦定虚拟地址(VIP)实现。
Heartbeat最核心的包括两个部分,心跳监测部分和资源接管部分,心跳监测可以通过网络链路和串口进行,而且支持冗余链路,它们之间相互发送报文来告诉对方自己当前的状态,如果在指定的时间内未受到对方发送的报文,那么就认为对方失效,这时需启动资源接管模块来接管运行在对方主机上的资源或者服务。
(一)用户与主服务器正常通信(二)主从服务器通过心跳专线监测彼此是否正常(三)如果主服务器的公网失效或服务器DOWN机,从服务器通过心跳监测后,启动设定服务并接管主服务器对外的网络资源(VIP)(四)用户与从服务器通信(从机在几秒或几十秒内接管主服务器)(五)主服务器恢复后(重起或修复等)可以重新接管网络资源。
主要模块介绍节点(node)运行Heartbeat进程的一个独立主机,称为节点,节点是HA的核心组成部分,每个节点上运行着操作系统和Heartbeat软件服务。
在Heartbeat集群中,节点有主次之分,分别称为主节点和备用/备份节点,每个节点拥有惟一的主机名,并且拥有属于自己的一组资源,例如磁盘、文件系统、网络地址和应用服务等。
高可用性集群系统的实现
![高可用性集群系统的实现](https://img.taocdn.com/s3/m/c3b7647511661ed9ad51f01dc281e53a5802518d.png)
高可用性集群系统的实现高可用性(High Availability,HA)是指系统能够在遇到故障或异常情况下仍然正常运行的能力。
在实践中,高可用性集群系统是一种常见的解决方案,用于保障关键业务的连续可用性。
下面是一个高可用性集群系统的实现方式的详细介绍。
1. 负载均衡(Load Balancing)负载均衡是高可用性集群系统的核心组件之一、它通过将请求分发到多个服务器节点上,以达到负载的均衡。
当其中一服务器节点发生故障时,负载均衡器可以自动将请求重新分配到其他可用的节点上,实现对服务的无感知切换和故障恢复。
常见的负载均衡算法包括轮询、加权轮询、最少连接数等。
负载均衡器可以是硬件设备,如F5等,也可以是软件实现,如Nginx、HAProxy等。
2.多节点架构多节点架构可以采用主从模式或活动-备用模式。
在主从模式下,一个节点作为主节点提供服务,其他节点作为从节点,负责备份和故障恢复。
在活动-备用模式下,一个节点处于活动状态,提供服务,其他节点保持备用状态,等待发生故障时切换到活动状态。
3.数据同步和复制为了保证数据的一致性和可用性,高可用性集群系统需要进行数据的同步和复制。
数据同步可以通过主从复制、主主复制或镜像复制等方式来实现。
主从复制是指将主节点上的数据同步到从节点上,从节点可以作为备份用于故障恢复;主主复制是指多个节点之间相互同步数据,实现互为备份和故障切换;镜像复制是指将数据复制到多个节点上,每个节点都可独立提供服务。
数据同步和复制可以通过数据库复制、文件复制、分布式文件系统等方式来实现。
同时,为了保证数据的一致性,可以使用分布式事务、两阶段提交等机制。
4.心跳检测和故障恢复为了实时监测节点的状态和及时发现故障,高可用性集群系统需要进行心跳检测。
心跳检测是指多个节点之间周期性地相互发送心跳消息,一旦发现节点无响应或超时,就将其判定为故障节点。
当出现故障时,高可用性集群系统需要进行故障恢复。
故障恢复可以采用自动切换、人工干预或自动修复等方式。
高可用集群解决方案
![高可用集群解决方案](https://img.taocdn.com/s3/m/a46c7dc3cd22bcd126fff705cc17552707225e83.png)
高可用集群解决方案
《高可用集群解决方案》
在当今数字化时代,企业对于系统的稳定性和可用性要求越来越高。
为了保障业务的正常运行,高可用集群解决方案成为了企业的迫切需求。
高可用集群是一种通过将多台服务器进行集群化部署,实现故障转移和负载均衡的方式,以提高系统的稳定性和可用性。
高可用集群解决方案通常包括硬件和软件两个层面的技术。
在硬件方面,企业可以通过在多台服务器上部署相同的硬件设备,以实现冗余备份和故障转移。
同时,还可以借助负载均衡器来分担服务器的负载,提高系统的性能和稳定性。
在软件方面,高可用集群解决方案会使用一些特定的软件工具来实现故障检测、故障转移和数据同步等功能,从而保障整个系统的稳定性和可用性。
对于企业来说,选择合适的高可用集群解决方案非常重要。
首先,企业需要根据自身的业务需求和数据规模来选择适合的集群解决方案。
其次,企业还需考虑集群解决方案的成本和部署难度,以确保自身能够承受并维护这样的解决方案。
最后,企业还需考虑解决方案的可扩展性和未来的升级计划,以确保投资的长期有效性。
总的来说,高可用集群解决方案是企业保障系统稳定性和可用性的重要手段。
通过合理选择和部署适合自身业务需求的集群
解决方案,企业可以确保系统随时可用,从而提高业务的竞争力和用户体验。
Docker容器部署实现高可用的成功案例
![Docker容器部署实现高可用的成功案例](https://img.taocdn.com/s3/m/a81a19d26394dd88d0d233d4b14e852459fb3952.png)
Docker容器部署实现高可用的成功案例近年来,Docker容器技术在软件开发和部署领域得到了广泛的应用。
其轻量级、隔离性强、易于迁移和扩展的特点,使得许多企业纷纷尝试使用Docker容器来实现应用的高可用性。
本文将介绍一则成功的案例,展示了如何通过Docker容器部署实现高可用。
一、初步部署和测试该案例的背景是一个电商平台的系统升级。
传统的部署方式存在许多不足,如依赖性管理繁琐、环境配置复杂以及系统故障时恢复困难等。
为了解决这些问题,企业决定采用Docker容器部署实现高可用。
首先,他们进行了初步的部署和测试。
在一台云服务器上搭建了Docker环境,并将系统的各个模块封装为Docker镜像。
然后,使用Docker Compose编排文件定义了多个容器的服务组配置。
通过这种方式,他们实现了基本的系统部署和测试。
二、构建高可用集群在初步部署和测试的基础上,他们开始着手构建高可用的集群。
首先,他们采用了Docker Swarm来管理多台云服务器上的Docker容器。
通过Swarm集群,他们可以将容器动态调度和管理,实现了容器的高可用性和负载均衡。
其次,他们使用了Docker的网络功能,创建了一个专用的overlay网络,使得Docker容器在Swarm集群中可以互相通信。
这样,他们可以轻松地实现容器之间的服务发现和通信,并使得整个系统在分布式环境下能够顺利运行。
三、故障恢复和水平扩展为了实现高可用,他们还采用了一些故障恢复和水平扩展的策略。
首先,他们为每个容器配置了副本数,以确保即使某个节点故障,其他节点上的容器仍然可以继续提供服务。
当有容器故障或被下线时,Swarm集群会自动在其他节点上启动新的容器。
其次,他们使用了Docker的服务扩展功能,可以根据负载情况自动增加或减少容器的数量。
当访问压力增大时,Swarm集群会自动创建新的容器来应对。
而当访问压力减小时,多余的容器会被自动回收,以节省资源和降低成本。
软件系统运维技术中高可用集群的部署方法
![软件系统运维技术中高可用集群的部署方法](https://img.taocdn.com/s3/m/b80998b605a1b0717fd5360cba1aa81145318f7f.png)
软件系统运维技术中高可用集群的部署方法在软件系统运维技术中,高可用集群是一种常用的部署方法,它可以提高系统的稳定性和可靠性。
本文将介绍软件系统运维技术中高可用集群的部署方法,包括负载均衡、故障恢复、监控和自动化等方面的内容。
首先,负载均衡是高可用集群部署的重要组成部分。
负载均衡可以将流量分配到不同的服务器上,确保系统的负载均衡和高可用性。
常见的负载均衡算法有轮询算法、加权轮询算法和最少连接算法等。
通过将负载均衡器放置在系统前端,可以实现流量的智能分发,提高系统的性能和可用性。
其次,故障恢复是高可用集群部署中不可或缺的环节。
故障恢复包括故障检测、故障转移和故障恢复等步骤。
在高可用集群中,通过监控系统的各个节点的状态,一旦发现节点故障,可以快速地将流量切换到其他正常的节点上,从而实现系统的快速故障恢复。
监控是保证高可用集群运行稳定的关键。
通过对系统的实时监控,可以及时发现潜在的问题并采取相应的措施。
监控的内容包括服务器的负载情况、网络流量、磁盘空间、内存使用率等。
可以使用各种监控工具进行监控,如Zabbix、Nagios 等。
监控可以通过设置阈值和报警机制,实现对系统异常情况的及时响应和处理。
自动化是提高高可用集群部署效率和可靠性的重要手段。
通过自动化工具,可以快速地部署、配置和管理集群。
常见的自动化工具有Ansible、Puppet、SaltStack 等。
自动化部署可以减少人工操作的繁琐性和误操作的风险,提高部署的一致性和可靠性。
此外,备份和恢复策略也是保证高可用集群的重要环节。
定期对系统进行备份,以防系统发生故障时能够及时恢复。
备份的内容包括数据、配置文件及系统镜像等。
可以使用各种备份工具进行备份和恢复操作,如rsync、tar等。
总之,软件系统运维技术中高可用集群的部署方法包括负载均衡、故障恢复、监控和自动化等方面的内容。
通过合理部署高可用集群,可以提高系统的稳定性和可用性,并保证系统在面对故障时能够快速恢复正常运行。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
nderSoft
Normal
联鼎软件
高可用集群模块介绍
作者:市场部
上海联鼎软件股份有限公司
版权所有
目录
第一节概述 (2)
第二节产品优势 (2)
2.1全新体系架构 (2)
2.2智慧系统健康与可用性评价体系 (2)
2.3深度应用侦测代理 (3)
2.4强大的故障分级处理 (4)
2.5增强的跨平台集群系统集中管理 (4)
2.6支持虚拟化环境 (5)
2.7集群按业务分组,单组集群支持多达64个节点及64个任务 (5)
2.8首创智能预警体系 (6)
2.9丰富的集群备援模式 (6)
2.10更高级别的监测准确度,更快速的切换速度 (6)
第三节产品关键功能 (6)
第一节概述
全新的高可用集群模块是landerVault体系中负责保护关键业务应用免遭软、硬件故障影响的应用软件。
应用创造性的“故障分级”概念,融入“智能感知”系统,彻底颠覆传统高可用集群系统简单的二元化故障判断方式,将传统高可用系统仅对“故障”所引起的结果(如宕机)做出反应提升为对“故障”的成因(系统健康指标)进行监控与分析,配合独特的“故障预警”机制,在核心系统即将发生严重影响业务持续运作情况前及时发出“预警”,并在必要的情况下自动执行精确而迅速的故障隔离及应用转移,将故障事后处理提升为故障事前预知,充分保障用户核心应用7×24小时持续可靠运作,可支持多达64个节点的应用,并为局域网(LAN)或广域网(WAN)上的客户机提供高可用性的服务。
第二节产品优势
2.1全新体系架构
创新的LanderCluster的体系结构,以面向“对象”为核心,对象包括:IPAddress,Alias,Volume,Process,Service,CPU,Memory,Network等,每个对象都有自己的属性、方法、事件。
集群容器(Container)是一个大的接口池,集群负责管理这些对象的生命周期,为每一个对象提供接口服务。
2.2智慧系统健康与可用性评价体系
高可用集群模块在业界首次提出了创造性的“系统健康评价体系”并加以应用,我们认为对系统的可用性判断必须是持续的,大量的情况证明系统从“可用”转向“不可用”并非是瞬
间发生,而存在一个过程,在这个过程中,系统的某些核心指标将会提前显示出异常,虽然此时系统对外表现出的仍然为“可用”,但整个系统实际已经处于“亚健康”,对客户端的请求反应逐渐变慢,系统出现不稳定的迹象,系统整体可用性逐渐降低,如果不进行任何干预,系统在未来某个时点将有极大可能转化为真正“不可用”,从而导致灾难性的后果。
通过高可用集群模块的“系统健康评价体系”,用户将及时发现系统的异常状态,有效判断系统目前真正的“健康”程度,并且经过对系统核心指标的综合分析,将能对系统未来可能发生的状况进行“预知”,直击造成系统转向“不可用”的原因,提前发现,提前预警,提前解决,令用户从“被动”的解决转向“主动”的发现与处理,让系统的可用性判断从“不可知”转为“可预知”。
2.3深度应用侦测代理
高可用集群保护下的核心业务通过代理(Agent)实时采集应用的运行态数据,结合“评价体系”来诊断系统可用性的。
可用性指标分为两类:一类是结果类,即模拟客户端访问是否成功,是否获得期望的响应;另一类是风险类,体现的是系统当前运行态的风险指数,如应用的连接数、数据库的存储空间使用率、Web的访问迟延、网络的流量、CPU的负载、系统内存的余量等等,这些因素都是系统能否正常工作的潜在风险,是进行故障预警的重要预测依据。
高可用集群模块提供常用软件的侦测代理,如Oracle、MS-Sql以及Web等,这些监控对象的接口及方法,被灵活保存在XML配置文件中。
集群提供开放的应用代理接口,用户可根据开发模板,自定义监控对象的指标采集方法,就可以让集群系统实时监控这些指标,触发相关的事件。
2.4强大的故障分级处理
高可用集群模块独特的故障分级处理系统能够满足用户自定义故障阀值,建立不同的故障评价标准,并对每一类故障进行自定义操作,提供最大的灵活性。
同时系统提供丰富插件,为用户提供精准的故障分析。
2.5增强的跨平台集群系统集中管理
LanderVault应用JAVA技术,实现全面的跨平台管理,允许用户在不同的平台中统一的管理整个集群,在不同平台中拥有统一界面,通过增强的LanderVault集中管理平台,用户能够全面集中监控及管理资源组内各台服务器的存储资源,网络负载,系统进程,系统服务,并可对目标服务器的进程及服务进行操作,从而极大简化集中管理的复杂度,实现合理资源配置。
2.6支持虚拟化环境
虚拟化大潮翻涌,软硬件虚拟化技术不断扩展,用户未来的核心应用极有可能运行于虚拟化的环境中,在虚拟化技术重新整合并分配用户资源的同时,对系统整体可用性的要求变得更为苛刻,一台运行了多个虚拟环境的服务器一旦出现故障将直接影响其上的所有虚拟系统,其损失远比单一系统环境严重数倍。
单个虚拟系统的故障同样需要进行故障转移,LanderVault系统中的高可用集群模块超前支持虚拟化存储环境,支持虚拟化操作系统环境VMware,支持单一虚拟化系统之间自由切换。
2.7集群按业务分组,单组集群支持多达64个节点及64个任务
LanderVault系统中的高可用集群模块支持为每组核心业务独立分组,便于管理,我们把逻辑相关的服务器部署在一个服务器组里,而把逻辑不相关的服务器放入不同的服务器组里。
在服务器组内,可以构建集群,复制,备份和容灾等数据安全解决方案,在每个分组内可支持多达64个节点,并可同时管理64个任务,完全满足大型企业级用户需求,为用户的系统扩展提供了充足的空间。
2.8首创智能预警体系
全新的系统智能预警体系,通过采集“系统健康评价体系”的数据,持续监控维持核心系统稳定运作的重要指标变化,包括处理器、内存、LAN 介质、存储设备、网卡、进程、应用程序实时状态,任意指标出现异常状况,即可快速作出响应,防患于未然。
2.9丰富的集群备援模式
支持丰富的集群备援模式,包括:单机高可用、主从、对等、多备一、一备多、多备多、多机互备,双存储备援,纯软环境集群,远程高可用,虚拟环境高可用等各类灵活方式。
2.10更高级别的监测准确度,更快速的切换速度
高可用系统在保障用户核心业务的同时,必须拥有极高的监测准确度、监测速度、降低系统停顿时间,高可用集群模块通过采用独特的MLDC 多链路数据交换协议,应用最多5层链路侦测,确保集群监测准确可靠,避免“脑裂”现象,并应用快速故障侦测及处理技术将系统切换时间缩短到以“秒”计算的范围,最大程度降低系统停机时间,提升系统可用性。
第三节 产品关键功能
支持各种切换策略:主备切换模式、回切模式、任务负载均衡模式。
通过强大的执行树功能,可自定义集群系统发生切换时各种资源停止及启动的执行顺序。
支持集群资源动态监控,第一个采用“健康系统安全评价体系”作为衡量集群可用性的方式,改变传统集群系统非“活”既“死”的二元化判断方法,可根据故障的严重程度,做不同级别的事件响应。
强大的Event Analyzer技术,可管理所有的任务调度和事件触发,具有人工智能。
支持windows、linux、unix系统平台,支持32位及64位操作系统,Windows平台和Linux平台采用统一的架构设计,可支持跨平台集群。
灵活的应用自定义接口(MObject),可满足所有应用的监控需求。
支持主流存储构架,如FC、ISCSI、SCSI及EXP等。
集群运行状态以直观的图形方式显示,
管理员轻松应对大规模系统环境。
专业深度监控插件,是目前唯一能对数据库系统的并发
用户数、表空间使用率以及进程占用CPU百分比等进行可用性定义的集群系统。
支持网格化多点镜像集群,与网格化复制模块结合,可实现广域网环境的异地高可用容错;与容灾模块结合,可实现异地应用级容灾。
完善的集群自我监控,应用进程互锁机制,最大程度保障集群系统自身健壮,避免集群丢失。
通过LanderVault先进B/S构架,系统管理员可轻松实现远程管理集群资源,并可针对集群组内大量资源统一分配及调整。
应用RSA的1024位密钥加密,确保用户核心数据万无一失。
支持多种报警方式(Mail、Vioce、SMS)。
支持中、英文语言界面,拥有完善的系统日志查看器,详细的系统帮助文档及手册。