DM7集群部署方案之数据共享集群Linux(2节点)

合集下载

Linux 服务器集群系统实现方案

Linux 服务器集群系统实现方案

Linux 服务器集群系统实现方案一、集群的基本概念有一种常见的方法可以大幅提高服务器的安全性,这就是集群。

Cluster集群技术可如下定义:一组相互独立的服务器在网络中表现为单一的系统,并以单一系统的模式加以管理。

此单一系统为客户工作站提供高可靠性的服务。

大多数模式下,集群中所有的计算机拥有一个共同的名称,集群内任一系统上运行的服务可被所有的网络客户所使用。

Cluster必须可以协调管理各分离的组件的错误和失败,并可透明地向Cluster 中加入组件。

一个Cluster包含多台(至少二台)拥有共享数据存储空间的服务器。

任何一台服务器运行一个应用时,应用数据被存储在共享的数据空间内。

每台服务器的操作系统和应用程序文件存储在其各自的本地储存空间上。

Cluster内各节点服务器通过一内部局域网相互通讯。

当一台节点服务器发生故障时,这台服务器上所运行的应用程序将在另一节点服务器上被自动接管。

当一个应用服务发生故障时,应用服务将被重新启动或被另一台服务器接管。

当以上任一故障发生时,客户将能很快连接到新的应用服务上。

二、集群的硬件配置镜像服务器双机集群中镜像服务器双机系统是硬件配置最简单和价格最低廉的解决方案,通常镜像服务的硬件配置需要两台服务器,在每台服务器有独立操作系统硬盘和数据存贮硬盘,每台服务器有与客户端相连的网卡,另有一对镜像卡或完成镜像功能的网卡。

镜像服务器具有配置简单,使用方便,价格低廉诸多优点,但由于镜像服务器需要采用网络方式镜像数据,通过镜像软件实现数据的同步,因此需要占用网络服务器的CPU及内存资源,镜像服务器的性能比单一服务器的性能要低一些。

有一些镜像服务器集群系统采用内存镜像的技术,这个技术的优点是所有的应用程序和网络操作系统在两台服务器上镜像同步,当主机出现故障时,备份机可以在几乎没有感觉的情况下接管所有应用程序。

因为两个服务器的内存完全一致,但当系统应用程序带有缺陷从而导致系统宕机时,两台服务器会同步宕机。

达梦数据库公司与产品介绍

达梦数据库公司与产品介绍
国际化支持
通用性
断点续传 自动重新连接
错误报警 完善的日志记录
可靠性
可配置工作线程和缓存 基于流水线并行 分区并行装载
高性能
扩展性
多元数据存储方式 应用集成 二次开发
易用性
简便的系统安装和配置 适用、易操作的图形化/ 远程管理工具 丰富的图形作业控制组件 作业调度 多种运行方式
通用性
兼容多种硬件体系
24.431
TPC-H
T1 MPP EP1 1a
T1 MPP EP2 4d
15 T1 MPP EP3
6f
11.188 T1 MPP EP4 T1 MPP EP5
2b
3c
T1 5e
……
并行数据加载 4d
1a 达梦快速装载工具
客户端
10
56 f
2b
3c 5e
6.25 3.04
0 HASH/Random
文本数据 1为节查点 询2 节优点化4器节点提供8 节优点
DMETL是达梦数据库有限公 司在上十年数据处理经验的基础上 ,研制开发的具有自主版权的、商 品化的数据集成软件,实现了对数 据抽取、传输、整合、以及装载的 一站式支持,是构建数据中心、数 据仓库、数据交换和数据同步等应 用的理想工具。
主要应用场景
异构数据同步
• 异构数据同步是指在一定的时间范围内,通过特定的技术方式,实现异构
达梦数据库公司与数据库 产品介绍
2013年4月

大纲
1
公司介绍
2
达梦数据库产品介绍
3
达梦ETL产品介绍
4
典型案例
5
与国内外产品的对比
6
致谢
公司简介

RedHat linux7-虚拟化+集群安装精简手册

RedHat linux7-虚拟化+集群安装精简手册

RedHat linux 7虚拟化环境集群安装精简手册1、前期准备挂载磁盘/*通过制作iso,方便后续安装动作,在知识库中应形成iso镜像体系*/dd if=/dev/sr0 of=/app/rh71。

isomount —o loop /app/rh71.iso /mnt挂载制作的isomount —loop /dev/sr0 /mnt查看少什么包/*如果想要是用vgscan指令,系统至少需要安装lvm2包,这个从安装好的系统上查*/ [root@jttldb1 host5]#rpm —qf /sbin/vgscanlvm2—2。

02.83—3.el6。

x86_64常用包安装net-tools (ifconfig等用)yum —y install nautilus-open-terminal(右键添加terminal)配置yum/* 根据具体挂载的路径和版本调整*/建立文件/etc/yum.repos。

d/mycdrom。

repo[Base]name=RHELbaseurl=file:///mntenabled=1gpgcheck=0[Cluster]name=RHELbaseurl=file:///mnt/addons/HighAvailabilityenabled=1gpgcheck=0配置ipIPADDR=10.88。

89.100GATEWAY=10。

88.89.1NETMASK=255。

255。

255.0ONBOOT=yes单网卡配置多ipifconfigteam0:0 10.88。

89.101netmask 255.255.255.0(临时添加一个ip,重启后消失,如果想永久拥有,需要配置ifcfg—ens32:0文件)临时文件取消:ifconfig ens32:0 down网卡绑定1)创建组接口(会生产一个ifcfg-team0)nmcli con add type team con-name team0 ifname team0 config ’{”runner":{"name":"activebackup"}}'nmcli con del team0 (删除绑定team)2)查看组接口配置nmcli con show3)给组接口添加设备nmcli con add type team—slave con—name team0-port1 ifname enp11s0f0master team0 nmcli con add type team—slave con-name team0-port2 ifname enp16s0f0master team0nmcli con mod type team-slave con—name team0—port2 ifname enp16s0f0master team04)配置ip[root@jttldb2 network-scripts]#more ifcfg—team0DEVICE=team0DEVICETYPE=TeamTEAM_CONFIG="{\"runner\":{\”name\":\”activebackup\”}}"BOOTPROTO=noneIPADDR=10.88。

linux集群使用方法 -回复

linux集群使用方法 -回复

linux集群使用方法-回复Linux集群使用方法引言:随着计算机技术和数据处理需求的不断发展,现代企业和科研机构对于高性能计算和大数据处理的需求也在不断增加。

为了应对这些挑战,Linux 集群成为了一个受欢迎的选择。

本文将一步一步详细介绍Linux集群的使用方法。

第一步:理解Linux集群的概念Linux集群是指将多个独立的计算节点连接在一起,通过网络互相通信和协作,以完成任务的计算环境。

每个节点都有自己的计算资源,例如CPU、内存和存储空间。

节点之间通过网络进行通信和数据传输。

集群可以提供更高的计算能力和可靠性,因为任务可以被分散到多个节点上并且可以进行冗余备份。

第二步:选择适当的集群软件和工具在建立Linux集群之前,需要选择适当的软件和工具来管理和运行集群。

以下是一些常见的Linux集群软件和工具:1. OpenMPI:用于管理和运行并行计算任务。

2. Slurm:一个作业调度器,用于管理集群上的作业和任务分配。

3. Ganglia:一个用于监控集群节点和资源利用率的工具。

4. GlusterFS:一个分布式文件系统,可以用于在集群节点之间共享文件。

第三步:搭建集群环境1. 硬件准备:每个集群节点都应该有足够的计算资源,例如CPU、内存和存储空间。

另外,网络设备也需要确保节点之间的高速通信。

2. 安装操作系统:为每个节点选择适当的Linux发行版,并在每个节点上进行安装。

确保每个节点的操作系统版本和软件配置一致。

3. 配置网络:为集群节点配置网络设置,包括IP地址、子网掩码和默认网关。

确保节点之间可以相互通信。

4. 安装集群软件和工具:根据选择的软件和工具,按照官方文档或指南的要求,在每个节点上安装所需的软件和工具。

第四步:配置集群管理工具1. 配置Slurm:根据集群规模和性能需求,配置Slurm作业调度器的参数,例如作业分配、节点资源管理和作业优先级。

2. 配置Ganglia:根据需要监控的指标,配置Ganglia以监控集群的节点和资源利用率。

DM集群功能概述

DM集群功能概述

DM集群功能概述DM提供了基于高级复制功能的实时高性能负载均衡容错集群。

集群系统采用无共享的结构,由若干台计算机组成,每台计算机上运行有各自的数据库系统,作为集群系统的一个运行节点,节点之间通过TCP/IP协议的网络互连,彼此协同计算,做为统一的数据库系统提供服务。

具有以下功能特性:(1)支持2至N个数据库节点(2)对外提供统一可配置的服务(3)所有节点数据实时同步(4)支持智能的负载均衡(5)支持无延时的故障转移,集群中只要有一个节点正常,对外提供的服务就不会中断,保证前端应用/服务不间断运行(6)具有智能维护功能,在不中断服务的情况下维护故障节点并能将其动态加入到集群系统集群结构图如下所示。

用户使用标准的接口(JDBC, ODBC, API, OLEDB, .NET PROVIDER),通过控制器,访问后台的数据库服务器群。

对客户来说,控制器就如同一个真正的单服务器。

控制器管理集群的各个节点,当任何一个节点失效时,该节点将从集群中移除。

只要还剩下一个节点,系统还能正常运转。

集群控制器集群控制器对集群技术的支持如下:(1)负责对查询处理负载的管理,即当一个客户端工具对集群控制器发出一个请求消息后,如果集群控制器发现请求的类型是查询类型,则根据节点的负载情况,挑选一个空闲节点处理这个任务。

(2)负责集群服务器节点信息的管理,具体为一台服务器要加入集群,首先通过用户安全验证,然后注册为集群的一个服务器节点,由集群控制器记录相关的注册信息;当一个集群服务器节点要退出集群,也是先通过用户安全验证,然后由控制器删除相关的服务器节点注册信息。

(3)负责在服务器节点出现故障时的处理,具体为当控制器发现某个服务器节点对DDL消息处理没有响应或执行失败,并且经过若干次重试后依然如此,则控制器将该节点从集群中移除。

在其他情况下有的节点没有响应或执行失败,则控制器会自动在某个活动的服务器节点上建立起和故障节点的异步复制关系。

干货分享之Dmetl集群配置

干货分享之Dmetl集群配置

DMETL集群的配置方法
在实际工作中,为了提高数据装载的效率,我们可以采用集群的方式来运行DMETL。

这里我们演示Dmetl使用一主多从的形式,配置主节点
(172.10.10.203)和从节点(172.10.10.204,过程如下:
1.在所需配置的服务器上分别安装企业版的etl,需注意,所有集群etl需要共
用一套元数据。

可以在etl配置文件中设置,如下图,所有节点元数据配置一致,本例选择单独的外置dm7数据库:
3.启动服务,将从节点加入到集群中
开启etl服务,通过etl管理器连接到主节点,菜单栏中选择集群管理:
然后选择添加从s节点,如下图,服务器ID可以直接获取:
添加成功后如下图:
4.转换中的集群配置:
在数据装载目的段选择集群配置,可以选择自动根据负载因子分配。

也可以自定义,比如选择所有的节点:
如图可见,装载时两节点并行,并且实际速度比单节点会有明显提升。

不过只对表装载起作用,对文件装载只能是单节点。

需要注意一点,所需要的其他配置文件或者数据源文件,如果选择集群自动方式时,需要保证每个服务器上都实际存在相关的文件。

linux集群使用指南

linux集群使用指南

linux集群使用指南Linux集群使用指南。

一、啥是Linux集群。

Linux集群呢,就像是一群小伙伴一起干活。

把好多台Linux计算机连接起来,让它们协同工作。

这就好比是一群超级英雄组成联盟,每个英雄都有自己的本事,合起来就能干大事啦。

比如说,有的计算机负责处理数据,有的负责存储,有的负责管理网络。

这样做的好处可多了去了。

就像大家一起抬重物,一个人可能抬不动,但是好多人一起就轻松搞定。

在处理大量数据或者需要高可靠性的任务时,Linux集群就超级有用。

二、硬件准备。

要搭建Linux集群,硬件可不能马虎。

首先得有几台计算机吧。

这些计算机的配置也有讲究哦。

如果是处理简单任务的小集群,普通配置的计算机就可以。

但要是处理大数据或者复杂计算,那就得要配置高一点的啦,像是有大容量内存、快速的CPU 还有大硬盘的计算机。

另外,这些计算机之间得能互相通信,这就需要网络设备啦。

像交换机之类的,就像它们之间的传声筒,把各个计算机连接起来,让它们能互相“聊天”。

而且呀,电源供应也很重要,要是突然断电,那可就麻烦了,所以最好有稳定的电源保障。

三、安装Linux系统。

有了硬件,就该给这些计算机装上Linux系统啦。

这就像是给每个小伙伴穿上合适的衣服一样。

可以选择一些流行的Linux发行版,像Ubuntu、CentOS之类的。

安装的时候要注意一些小细节哦。

比如说分区,要合理分配磁盘空间,给系统、数据和交换空间都留好地方。

要是分区不合理,就像衣服穿得不合身,干活的时候就会不舒服。

安装过程中,设置好用户名和密码也很重要,这就像是给你的小房子上把锁,只有你有钥匙才能进去。

而且呀,要把网络设置好,这样计算机们才能在网络的世界里找到彼此。

四、集群配置。

这可是个关键步骤呢。

要让这些计算机知道它们是一个团队。

可以使用一些工具来配置集群,像Puppet或者Ansible。

这些工具就像是指挥棒,告诉每台计算机该怎么做。

比如说,要配置好共享存储,这样大家都能访问到同样的数据。

揭秘达梦数据库高性能读写分离集群

揭秘达梦数据库高性能读写分离集群

揭秘达梦数据库高性能读写分离集群随着各行业业务数据和数据结构复杂程度的不断攀升,数据库的访问压力正不断增强。

在大型应用系统中往往存在上百万的用户,有上千万的数据量,产生众多的数据库查询操作,也有较多的数据库写操作。

如果能将数据库的读写操作分离,无疑能大幅提升系统性能。

一、系统概述在一个高并发的事务型系统中,当写事务占的比例相对读事务相对较小时,可以借助DM7的主备系统备机可读的特点,将读事务转移到备机执行,减少单节点的并发压力,通过增加备机节点资源,提高系统的并发能力,增强系统性能。

DM7提供一种独具创新的主备方案,即时归档主备系统,该系统可通过客户端来实现读写事务的自动分离,读事务在备机执行,写事务在主机执行,减轻主机的负载。

备机可以配置多个,备机配置的越多,更能分担主机的压力,系统整体并发效率越高。

二、读写分离流程DM7使用JDBC驱动与服务器结合的方式实现读写分离,大致流程如1000下:1) 用户登录后,客户端首先连接到主机,主机根据即时归档的配置,获取一个有效的备机信息,并返回给客户端。

2) 客户端根据主机返回的备机IP和端口,建立与该备机的连接。

3) 客户端执行语句时先在备机上执行,如果是只读事务,则只在备机上执行。

4) 如果系统收到客户端试图在备机模式下修改数据等错误,则说明该事务是写事务,则转移到主机上执行。

5) 一旦主机上执行的写事务提交,则下次继续从备机开始执行。

6) 为了实现负载均衡,防止出现读事务过多占用备机资源、主机空闲的情况,客户端采用一定的算法进行均衡,主机上也会执行一部分读事务。

图1 读写分离流程三、即时归档DM7支持多种归档类型,本地归档、实时归档、同步归档、异步归档等类型。

为了实现读写分离,新增一种即时归档(Timely archive)类型,以区别实时归档。

实时归档是实时发送日志到备机,备机收到日志不会等待日志APPLY完成,立即响应给主机,主机收到响应后才刷本地日志。

达梦数据库管理系统DM7

达梦数据库管理系统DM7

扫描了解更多资讯通用性高可用性高性能高安全性易用性兼容性03 04 06 11 15 19概述产品特性目录小结产品架构主机E P守护备机系统监视器DMWMON事务处理系统主机备机分析业务内网:224.254.16外网:10内网:224.内网:图3 DM7主备系统的典型架构双因子结合的身份鉴别提供基于用户口令和用户数字证书相结合的用户身份鉴别功能。

当接收的用户口令和用户数字证书均正确时,才算认证通过,用户口令和用户数据证书有一个不正确或与相应的用户名不匹配,则认证不通过,这种增强的身份认证方式可以更好的防止口令被盗、冒充用户登录等情况,为数据库安全把好了第一道关。

另外,DM7还支持基于操作系统的身份认证、基于LDAP集中式的第三方认证。

审计分析与实时侵害检测提供数据库审计功能,审计类别包括:系统级审计、语句级审计、对象级审计。

同时DM7还通过了中国信息安全评测中心的EAL 级评测4。

图6 安全等级DM7图7 EAL4级证书图8 安全结构体系DM7加密引擎DM7提供加密引擎功能,当DM7内置的加密算法,比如AES系列、DES系列、DESEDE系列、RC4等加密算法,无法满足用户数据存储加密要求时,用户可能希望使用自己特殊的加密算法,或强度更高的加密算法。

用户可以采用DM7的加密引擎功能,将自己特殊的或高强度的加密算法按照DM7提供的加密引擎标准接口要求进行封装,封装后的加密算法,即可以在DM7的存储加密中按常规的方法进行使用,大大提高了数据的安全性。

产品特性客体重用D 7内置的客体重用机制使数据库管理系统能够清扫被重新分配的系统资源,以保证数据信息不会因为资源的动态分配而泄露给未授权的用户。

M 产品特性所有主客体的强制访问控制DM7达到了安全四级的要求。

强制访问控制是利用策略和标记实现数据库访问控制的一种机制。

该功能主要是针对数据库用户、各种数据库对象、表以及表内数据。

控制粒度同时达到列级和记录级。

Red Hat Enterprise Linux 7 DM 多路径配置和管理文档说明书

Red Hat Enterprise Linux 7 DM 多路径配置和管理文档说明书

Red Hat Enterprise Linux 7DM 多路径Configuring and managing Device Mapper MultipathLast Updated: 2023-03-25Red Hat Enterprise Linux 7 DM 多路径Configuring and managing Device Mapper Multipath Steven LevineRed Hat Customer Content Services******************. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .目录第 1 章 设备映射器多路径1.1. NEW AND CHANGED FEATURES 1.2. OVERVIEW OF DM MULTIPATH 1.3. 存储阵列支持1.4. DM MULTIPATH COMPONENTS1.5. DM MULTIPATH SETUP OVERVIEW 第 2 章 多路径设备2.1. 多路径设备识别器2.2. 在群集中保持多路径设备名称一致2.3. 多路径设备属性2.4. 逻辑卷中的多路径设备第 3 章 SETTING UP DM MULTIPATH 3.1. SETTING UP DM MULTIPATH 3.2. 在生成多路径设备时忽略逻辑磁盘3.3. CONFIGURING STORAGE DEVICES 3.4. SETTING UP MULTIPATHING IN THE INITRAMFS FILE SYSTEM 第 4 章 THE DM MULTIPATH CONFIGURATION FILE 4.1. 配置文件总览4.2. 配置文件黑名单4.3. 配置文件默认设置4.4. 多路径设备配置属性4.5. 配置文件设备4.6. ISCSI AND DM MULTIPATH OVERRIDES 第 5 章 DM MULTIPATH ADMINISTRATION AND TROUBLESHOOTING5.1. AUTOMATIC CONFIGURATION FILE GENERATION WITH MULTIPATH HELPER 5.2. RESIZING AN ONLINE MULTIPATH DEVICE 5.3. MOVING ROOT FILE SYSTEMS FROM A SINGLE PATH DEVICE TO A MULTIPATH DEVICE 5.4. MOVING SWAP FILE SYSTEMS FROM A SINGLE PATH DEVICE TO A MULTIPATH DEVICE 5.5. THE MULTIPATH DAEMON 5.6. ISSUES WITH QUEUE_IF_NO_PATH FEATURE 5.7. MULTIPATH COMMAND OUTPUT 5.8. MULTIPATH QUERIES WITH MULTIPATH COMMAND 5.9. MULTIPATH COMMAND OPTIONS 5.10. 使用 DMSETUP 命令确定设备映射器条目5.11. THE MULTIPATHD COMMANDS 5.12. TROUBLESHOOTING WITH THE MULTIPATHD INTERACTIVE CONSOLE 5.13. CLEANING UP MULTIPATH FILES ON PACKAGE REMOVAL 附录 A. 修订记录索引335778999101012121314151616172031364345454545474747484949505051525354目录1DM 多路径2第 1 章设备映射器多路径3DM 多路径4第 1 章设备映射器多路径5DM 多路径6第 1 章设备映射器多路径在这个配置中,可将 I/O分布到那四条路径中。

存储集群双机热备方案

存储集群双机热备方案

存储集群双机热备方案存储和集群双机热备方案是一种高可用性架构,用于确保系统在硬件或软件故障的情况下仍能够持续提供服务。

这种方案结合了存储和集群技术,可以实现数据的持久性存储和计算资源的高可用性。

以下是一个介绍该双机热备方案的详细说明。

1.双机热备概念:双机热备指的是在两台服务器间建立一个活动(主)服务器和一个备用(辅)服务器,当活动服务器发生故障时,备用服务器立即接管其功能,确保系统的连续性。

备用服务器会同步活动服务器的数据,以便在故障发生时能够无缝切换。

2.存储双机热备方案:在存储双机热备方案中,使用两台存储服务器和一个外部存储设备(例如共享存储,网络存储等)。

活动服务器将数据写入外部存储设备,并同步到备用服务器。

当活动服务器故障时,备用服务器立即接管数据的读写操作,确保系统的连续性。

3.集群双机热备方案:在集群双机热备方案中,使用两台服务器组成一个集群,通过负载均衡将工作负载平均分配给每个服务器。

其中一台服务器作为活动节点,另一台作为备用节点。

活动节点接收到的请求会同时发送到备用节点,以确保数据的一致性。

当活动节点发生故障时,备用节点会接管请求处理,从而确保系统的连续性。

4.双机热备方案的关键技术:(1)心跳机制:通过心跳信号检测服务器的状态,及时判断主服务器是否发生故障,并触发切换。

(2)数据同步:保持活动服务器和备用服务器之间数据的同步更新,可以使用同步复制或异步复制等技术来实现。

(3)故障切换:在活动服务器故障时,通过故障切换机制将备用服务器切换为活动服务器,以确保系统的连续性和可用性。

(4)数据一致性:双机热备方案需要保证数据的一致性,确保在切换过程中不丢失数据或导致数据冲突。

5.实施双机热备方案的步骤:(1)选择适当的硬件设备和软件平台,以支持双机热备方案的实施。

(2)安装和配置双机热备软件,例如虚拟化软件、容错技术等。

(3)将数据存储在外部设备上,并设置数据同步策略。

(4)配置故障切换策略和警报机制,以及处理故障的自动化脚本。

Linux集群文件系统简介

Linux集群文件系统简介

Linux 集群文件系统简介作者Sheryl Calish集群文件系统在多个方面完善了Oracle RAC 的数据库集群功能。

以下是它们的比照状况。

通常,集群只是一组作为单一系统运行的效劳器〔PC 或者工作站〕。

但是,这个定义的外延不断显著扩大;集群技术现在不但是一个动态领域,而且其各种应用程序正不断吸取的特性。

此外,集群文件系统技术〔无论是开放源代码的还是专有的〕在其功能方面正在快速趋同。

很多人谈到集群应用程序和其中所使用的文件系统软件时,就象它们完全是一回事似的。

更准确地说,大多数集群包含两个主要组件:通过快速网络连接共享存储介质的效劳器和充当软件“粘合剂”使集群节点保持协作的文件系统。

在“Linux 文件系统精通指南”一文中,我解释了文件系统方法和数据构造如何供给硬盘分区物理构造的用户级视角。

虽然各工程之间有所不同,但集群文件系统为集群的多个节点所做的工作是一样的:它们使全部节点看上去都象是单一系统的一局部,同时允许集群的全部节点进展并发的读写操作。

在本篇后续文章中,我们将从较高角度来介绍集群文件系统之间的总体差异以及Oracle 真正应用集群(RAC) 环境的某些特性。

刚接触集群、Linux 文件系统或Oracle RAC 的数据库治理员或系统治理员会发该文很有教育意义。

集群应用程序简介集群应用程序具有各种级别的成熟度和功能。

它们包括:•高性能集群也称为并行集群或计算集群,通常用于那些支持大量计算处理的系统。

在这些集群中,并行文件系统在节点间安排处理资源,因而允许每个节点通过并发的读写同时访问同一文件。

NASA 在二十世纪九十年月初期开发的Beowulf Linux 集群就是最常见的例如。

•高可用性(HA) 集群特地为容错或冗余而设计。

由于这些集群通常使用一个或多个效劳器进展处理,所以当一个或多个效劳器停机时,这些效劳器能够担当其他效劳器的处理职责。

•负载平衡或负载均衡集群在多个效劳器〔通常是web 效劳器〕间尽可能平均地安排负载。

达梦数据交换平台集群功能介绍

达梦数据交换平台集群功能介绍
体系结构
DMETL 集群采用主从结构,主从节点的功能差异主要体现在管理、监控等非 数据处理功能上,而在数据处理和流程执行功能上,集群中的各个节点是对等的, 从而保证集群数据处理能力,能够获得接近线性的提升。
主从节点的关系如下: 1) 一个集群中有且只有一个主节点。 2) 一个集群中的所有节点共享一份元数据。 3) 从节点只作为流程执行器,接收来自主节点的流程执行请求。 4) 主节点除了执行流程以外,还负责进行作业调度、事件分发、告警通知等功
能的执行,但这些这些功能对服务器的资源消耗较少,对主节点的性能影响 小且不会随着节点数的增长而明显增长,因此主节点一般不会系统的瓶颈。 5) 主节点故障时,从节点可以自动执行从到主的切换成为临时主节点,主节点 恢复之后,临时主节点执行主到从的切换,成为从节点。 6) DMETL 客户端或者第三方应用可以连接集群任何一个节点进管理、配置工 作或者执行流程。

转换1
转换2
目的
该流程在一个两节点的集群上运行时的结构如下:
DMETL 2节点集群
服务器1 (正常) 源
转换1
转换2
目的
达梦数据交换平台产品白皮书
服务器2(正常) 转换1 转换2 目的
数据源组件通常不存在性能瓶颈,只需要在一个节点上执行,数据读取出 来后,转换组件和目的组件可以同时在两台服务器上并行运行,每台服务器分别 处理一部分数据,因此可以提高数据转换和装载的性能。
4) 提高服务器可管理性和利用率
当数据集成应用中整合的数据源较多需要部署了多台 ETL 服务器时,可以 使用一个 N 节点的 ETL 集群来代替单独部署 N 台独立的 ETL 服务器,这样做 可以带来以下好处:
集群中的 N 台 ETL 服务器共享一个元数据库,登录任何一台 ETL 服务器即可 对所有的业务流程进行设计、管理、维护操作,也可以在一个统一的视图中 了解每台服务器的状态,可以大大提升工作效率。

达梦DM7MPP架构轻松应对数据的爆发式增长

达梦DM7MPP架构轻松应对数据的爆发式增长

达梦DM7 MPP 架构轻松应对数据的爆发式增长为了支持海量数据存储和处理、高并发处理、高性价比、高可用性等需求,提供高端数据仓库解决方案,达梦数据库7.0版本(DM7 )提供了大规模并行处理MPP架构,以极低的成本代价,为客户提供业界领先的计算性能。

DM7 采用完全对等无共享( share-nothing )的MPP 架构,支持SQL 并行处理,可自动化分区数据和并行查询,无I/O 冲突。

MPP 架构凸显六大特色MPP 系统工作起来就像是一台单独的计算机,由于采用自动化的并行处理,执行速度比传统的单节点数据库大大提高。

采用了MPP 架构的DM7 具有以下6 大特色:1.大规模并行处理。

DM7的MPP架构最多可以同时部署1024 个节点,采用统一的并行操作数据库引擎,由于数据分散在不同的数据库节点上,在高速的内部网络环境下,对于海量数据的并发查询可极大地减少I/O,提高查询效率。

2.核心的MPP架构。

DM7的MPP架构提供数据存储和查询的自动化并行,插入的数据会被自动分区保存到相应的节点,查询时在各节点的数据库引擎上并行执行查询,并将所有结果数据自动汇集到主查询节点上,数据无共享、无I/O 冲突。

3.可靠的数据保护机制。

DM7 提供了数据守护系统,满足用户对数据可靠性、安全性的需求,解决由于硬件故障、自然灾害等原因导致的数据库服务长时间中断问题,提高系统的可用性。

MPP 系统中的每个节点都可配置数据守护系统,增加节点数据的完整冗余镜像。

节点和镜像节点之间可以互相转换成MPP 中的工作节点。

4.持列存储。

在数据仓库(OLAP)、数据挖掘等查询密集型应用中可使用列存储表,在查询只需要少数几个字段的时候,能大大减少I/O,同时列存储也利于使用设计更好的压缩/ 解压算法,进一步减少存储空间。

5.功能齐全。

DM7的MPP系统和单节点数据库相比,几乎没有任何功能上的限制,支持各种约束,支持触发器,支持存储过程、系统函数、复杂查询等。

达梦数据库管理系统DM8白皮书

达梦数据库管理系统DM8白皮书

DS DS
日志层
RS
RS
RS
SS1 存储层 SS2 SS3
SS1′ SS2′ SS3′
SS1″ SS2″ SS3″
本地机房
本地备机房
异地备机房
图3 基于TDD架构的两地三中心架构参考
数据层节点支持异地部署,通过将数据副本存储在不同的容灾域,实现数据的异地容灾 。 日志服务本身具备副本与容灾能力,可在每个数据中心分别部署日志服务节点。 数据库服务在主机房按需部署,在本地和异地备用机房日常无需部署,只需在检测到灾 害 时,即时启动。
dmdatabasemanagementsystem达梦数据库管理系统dm8达梦技术白皮书目录丨content面向未来的dm数据库技术架构概述产品细节持续改善关键业务解决方案达梦数据共享集群dmdsc达梦分布式事务处理架构透明分布式数据库达梦分布式动态分析架构数据库弹性计算达梦混合事务分析处理技术行列融合20开发技术支持编程语言接口与开发框架支持更强的sql特性多字符集与国际化网络通信协议全新的集中式运维管理工具dem管理工具集成新的sql助手20运行环境提示与误删保护运维管理弱口令扫描更安全的数据库消息协议实现集群形态支持访问控制落盘数据全面加密国产环境下的高强度密码算法支持dm8安全持续改进广泛的sql语法兼容性专用dbapi特性兼容便捷的数据迁移达梦柔性替代迁移解决方案从其他数据库平滑迁移到dm8支持更多平台的dm8达梦mpp集群改进数据库备份还原改进重做日志系统改进系统运行日志与监控数据库对象与管理系统性能优化01333333333307050911151515161718353940414221232424272930summarize互联网物联网云计算人工智能的发展极大改变了信息系统建设的技术架构和发展方向数据库成为it系统中的性能可靠性和扩展性焦点

linux服务器集群的详细配置

linux服务器集群的详细配置

linux服务器集群的详细配置一、计算机集群简介计算机集群简称集群是一种计算机系统, 它通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地协作完成计算工作;在某种意义上,他们可以被看作是一台计算机;集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的可能连接方式;集群计算机通常用来改进单个计算机的计算速度和/或可靠性;一般情况下集群计算机比单个计算机,比如工作站或超级计算机性能价格比要高得多;二、集群的分类群分为同构与异构两种,它们的区别在于:组成集群系统的计算机之间的体系结构是否相同;集群计算机按功能和结构可以分成以下几类:高可用性集群 High-availability HA clusters负载均衡集群 Load balancing clusters高性能计算集群 High-performance HPC clusters网格计算 Grid computing高可用性集群一般是指当集群中有某个节点失效的情况下,其上的任务会自动转移到其他正常的节点上;还指可以将集群中的某节点进行离线维护再上线,该过程并不影响整个集群的运行;负载均衡集群负载均衡集群运行时一般通过一个或者多个前端负载均衡器将工作负载分发到后端的一组服务器上,从而达到整个系统的高性能和高可用性;这样的计算机集群有时也被称为服务器群Server Farm; 一般高可用性集群和负载均衡集群会使用类似的技术,或同时具有高可用性与负载均衡的特点;Linux虚拟服务器LVS项目在Linux操作系统上提供了最常用的负载均衡软件;高性能计算集群高性能计算集群采用将计算任务分配到集群的不同计算节点而提高计算能力,因而主要应用在科学计算领域;比较流行的HPC采用Linux操作系统和其它一些免费软件来完成并行运算;这一集群配置通常被称为Beowulf集群;这类集群通常运行特定的程序以发挥HPC cluster的并行能力;这类程序一般应用特定的运行库, 比如专为科学计算设计的MPI 库集群特别适合于在计算中各计算节点之间发生大量数据通讯的计算作业,比如一个节点的中间结果或影响到其它节点计算结果的情况;网格计算网格计算或网格集群是一种与集群计算非常相关的技术;网格与传统集群的主要差别是网格是连接一组相关并不信任的计算机,它的运作更像一个计算公共设施而不是一个独立的计算机;还有,网格通常比集群支持更多不同类型的计算机集合;网格计算是针对有许多独立作业的工作任务作优化,在计算过程中作业间无需共享数据;网格主要服务于管理在独立执行工作的计算机间的作业分配;资源如存储可以被所有结点共享,但作业的中间结果不会影响在其他网格结点上作业的进展;三、linux集群的详细配置下面就以WEB服务为例,采用高可用集群和负载均衡集群相结合;1、系统准备:准备四台安装Redhat Enterprise Linux 5的机器,其他node1和node2分别为两台WEB服务器,master作为集群分配服务器,slave作为master的备份服务器;所需软件包依赖包没有列出:2、IP地址以及主机名如下:3、编辑各自的hosts和network文件mastervim /etc/hosts 添加以下两行vim /etc/sysconfig/networkHOSTNAME= slavevim /etc/hosts 添加以下两行vim /etc/sysconfig/network HOSTNAME= node1vim /etc/hosts 添加以下两行vim /etc/sysconfig/network HOSTNAME= node2vim /etc/hosts 添加以下两行vim /etc/sysconfig/networkHOSTNAME= 注:为了实验过程的顺利,请务必确保network文件中的主机名和hostname命令显示的主机名保持一致,由于没有假设DNS服务器,故在hosts 文件中添加记录;4、架设WEB服务,并隐藏ARPnode1yum install httpdvim /var//html/添加如下信息:This is node1.service httpd startelinks 访问测试,正确显示&nbs隐藏ARP,配置如下echo 1 >> /proc/sys/net/ipv4/conf/lo/arp_ignoreecho 1 >> /proc/sys/net/ipv4/conf/all/arp_ignore echo 2 >> /proc/sys/net/ipv4/conf/lo/arp_announce echo 2 >> /proc/sys/net/ipv4/conf/all/arp_announce ifconfig lo:0 netmask broadcast uproute add -host dev lo:0node2yum install httpdvim /var//html/添加如下信息:This is node2.service httpd startelinks 访问测试,正确显示隐藏ARP,配置如下echo 1 >> /proc/sys/net/ipv4/conf/lo/arp_ignore echo 1 >> /proc/sys/net/ipv4/conf/all/arp_ignore echo 2 >> /proc/sys/net/ipv4/conf/lo/arp_announce echo 2 >> /proc/sys/net/ipv4/conf/all/arp_announceifconfig lo:0 netmask broadcast uproute add -host dev lo:0mastervim /var//html/添加如下内容:The service is bad.service httpd startslavevim /var//html/添加如下内容:The service is bad.service httpd start5、配置负载均衡集群以及高可用集群小提示:使用rpm命令安装需要解决依赖性这一烦人的问题,可把以上文件放在同一目录下,用下面这条命令安装以上所有rpm包:yum --nogpgcheck -y localinstall .rpmmastercd /usr/share/doc/ cp haresources authkeys /etc/cd /usr/share/doc/ cp /etccd /etcvim开启并修改以下选项:debugfile /var/log/ha-debuglogfile /var/log/ha-logkeepalive 2deadtime 30udpport 694bcast eth0增加以下两项:node node vim haresources增加以下选项:ldirectord::/etc/为/etc/authkeys文件添加内容echo -ne "auth 1\n1 sha1 "注意此处的空格 >> /etc/authkeysdd if=/dev/urandom bs=512 count=1 | openssl md5 >> /etc/authkeys &nbs更改key文件的权限chmod 600 /etc/authkeysvim /etc/修改如下图所示:slave 注:由于slave的配置跟master配置都是一样的可以用下面的命令直接复制过来,当然想要再练习的朋友可以自己手动再配置一边;scp root:/etc/{,haresources} /etc/输入的root密码scp root:/etc/ /etc输入的root密码6、启动heartbeat服务并测试master & slaveservice heartbeat start这里我就我的物理机作为客户端来访问WEB服务,打开IE浏览器这里使用IE浏览器测试,并不是本人喜欢IE,而是发现用google浏览器测试,得出的结果不一样,具体可能跟两者的内核架构有关,输入,按F5刷新,可以看到三次是2,一次是1,循环出现;7、停止主服务器,再测试其访问情况masterifdown eth0再次访问,可以看到,服务器依然能够访问;。

DM8集群部署方案之读写分离集群Linux(3节点)

DM8集群部署方案之读写分离集群Linux(3节点)
2 配置 A 机器......................................................................................................................................... 2
2.1 注册服务 ...................................................................................................................................... 2 2.2 配置 DM.INI................................................................................................................................... 3 2.3 配置 DMARCH.INI........................................................................................................................... 3 2.4 配置 DMMAL.INI ............................................................................................................................ 4 2.5 配置 DMWATCHER.INI..................................................................................................................... 4 2.6 配置 DMWATCHER.CTL ................................................................................................................... 5 2.7 拷贝实例 ...................................................................................................................................... 5
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

DM7集群部署方案之数据共享集群Linux(2节点)武汉达梦数据库有限公司2019年9月版本历史目录1 前期准备工作 (1)1.1硬件准备 (1)1.2网络架构 (1)1.3硬件环境建议 (1)1.4硬件环境环境验证 (2)1.5集群规划 (2)1.6修改主机名 (2)1.7关闭防火墙 (3)1.8网卡自启 (3)1.9修改系统参数 (3)2 创建目录并安装数据库 (3)2.1A机器 (3)2.2B机器 (4)3 存储准备 (4)3.1划存储 (4)3.2挂存储方法1:直接挂 (4)3.3挂存储方法2:多路径绑定 (5)4 搭建DSC (6)4.1配置DMDCR_CFG.INI (6)4.2初始化磁盘组 (7)4.3配置DMASVRMAL.INI (7)4.4配置DMDCR.INI (7)4.5启动CSS、ASM服务 (8)4.6创建DMASM磁盘组 (9)4.7配置DMINIT.INI (9)4.8初始化数据库 (9)4.9配置DMARCH.INI (10)4.10启动DMSERVER服务 (10)4.11设置后台启动脚本 (11)4.12启停集群 (12)5 配置监视器 (13)5.1配置DMCSSM.INI (13)5.2启动监视器 (13)6配置DM_SVC.CONF文件 (13)6.1 DM_SVC.CONF配置内容 (13)6.2应用连接 (14)7附加操作 (14)7.1操作系统/数据库调优 (14)7.2数据库备份 (14)7.3项目管理维护 (14)1前期准备工作1.1硬件准备1.2网络架构1.3硬件环境建议1.心跳网络方面:①集群间的心跳网络要走数据,最好走两个交换机,来实现冗余和负载均衡。

②需要把服务器多个心跳网卡绑定为一个逻辑网卡来使用(比如bond方式)。

③交换机速度建议为万兆。

2.存储网络方面:①每台数据库服务器上必须有两块HBA卡连接光纤交换机,做冗余和负载均衡。

3.存储方面:①两台服务器都连接到同一个存储上(共享存储只需要映射到服务器端fdisk -l可以查看到就行,不需要格式化)。

②节点1所在服务器单独挂存储,需要格式化好,用来备份数据等,文件系统建议使用ext4。

1.4硬件环境环境验证1.心跳网络方面:①关闭其中一台交换机或者模拟其中一条线路故障,是否能做到网络方面的冗余。

②测试心跳网络的稳定性,会不会出现断连或者丢包等情况。

1.5集群规划说明:具体规划及部署方式以现场环境为准。

1.6修改主机名A机器B机器1.7关闭防火墙关闭防火墙,并禁止防火墙服务开机自启。

注意:AB机器均需要修改。

1.8网卡自启将网卡设置为开机自启注意:AB机器均需要修改。

1.9修改系统参数注意:AB机器均需要修改。

2创建目录并安装数据库2.1A机器创建dmdba用户,并切换到dmdba用户下,创建文件夹,数据库安装在/opt/dsc/dmdbms目录下2.2B机器创建dmdba用户,并切换到dmdba用户下,创建文件夹,数据库安装在/opt/dsc/dmdbms目录下3存储准备3.1划存储●2TB以下的存储使用fdisk命令来划分●2TB以上的需要使用parted命令来划分注意:以上只需要在A机器上划分。

注意:以上需要在AB机器上执行。

3.2挂存储方法1:直接挂注意:AB机器按照顺序修改。

可通过blockdev --getsize64 /dev/raw/raw1命令查看裸设备大小。

如果60-raw.rules文件不存在,直接创建即可。

3.3挂存储方法2:多路径绑定使用命令ll /dev/mappr和ll /dev/dm*查看对应设备的信息例如,/dev/mapper/mpathg1对应dm-3,主设备编号为253,次设备编号为3编辑/etc/udev/rules.d/60-raw.rules文件注意:2个节点按照节点顺序修改。

可通过blockdev --getsize /dev/raw/raw*查看裸设备大小。

重启服务器。

服务器重启之后设备号有可能会发生改变,所以重启之后先查看裸设备大小是否正常。

4搭建DSC4.1配置 dmdcr_cfg.ini在/opt/dsc/config下新建dmdcr_cfg.ini文件,以下ip地址配置成万兆内网的ipDCR_N_GRP = 3DCR_VTD_PATH = /dev/raw/raw2DCR_OGUID = 45331[GRP]DCR_GRP_TYPE = CSSDCR_GRP_NAME = GRP_CSSDCR_GRP_N_EP = 2DCR_GRP_DSKCHK_CNT = 60[GRP_CSS]DCR_EP_NAME = CSS0DCR_EP_HOST = 192.168.1.1 #心跳地址DCR_EP_PORT = 9341[GRP_CSS]DCR_EP_NAME = CSS1DCR_EP_HOST = 192.168.1.2 #心跳地址DCR_EP_PORT = 9343[GRP]DCR_GRP_TYPE = ASMDCR_GRP_NAME = GRP_ASMDCR_GRP_N_EP = 2DCR_GRP_DSKCHK_CNT = 60[GRP_ASM]DCR_EP_NAME = ASM0DCR_EP_SHM_KEY = 93360DCR_EP_SHM_SIZE = 10DCR_EP_HOST = 172.16.1.1 #业务地址DCR_EP_PORT = 9349DCR_EP_ASM_LOAD_PATH = /dev/raw[GRP_ASM]DCR_EP_NAME = ASM1DCR_EP_SHM_KEY = 93361DCR_EP_SHM_SIZE = 10DCR_EP_HOST = 172.16.1.2 #业务地址DCR_EP_PORT = 9351DCR_EP_ASM_LOAD_PATH = /dev/raw[GRP]DCR_GRP_TYPE = DBDCR_GRP_NAME = GRP_DSCDCR_GRP_N_EP = 2注意:AB机器该文件相同。

4.2初始化磁盘组在A机器上启动dmasmcmd工具,依次输入以下命令4.3配置 dmasvrmal.ini在/opt/dsc/config下新建dmasvrmal.ini文件,以下ip地址配置成万兆内网的ip注意:AB机器该文件相同。

4.4配置 dmdcr.ini在A机器的/opt/dsc/config下新建dmdcr.ini文件,以下ip地址配置成万兆内网的ip在B机器的/opt/dsc/config下新建dmdcr.ini文件,以下ip地址配置成万兆内网的ip注:dmdcr.ini中先将ASM和DMSERVER配置为手动服务,待所有配置完成后,再修改dmdcr.ini将ASM和DMSERVER 配置成自动拉起。

4.5启动CSS、ASM服务分别前台启动AB机器的CSS、ASM服务4.6创建DMASM磁盘组在A机器上启动dmasmtool工具,创建DMASM磁盘组4.7配置 dminit.ini在/opt/dsc/config下新建dminit.ini文件,以下ip地址配置成万兆内网的ipdb_name = dscsystem_path = +DMDATA/datasystem = +DMDATA/data/dsc/system.dbfsystem_size = 128roll = +DMDATA/data/dsc/roll.dbfroll_size = 128main = +DMDATA/data/dsc/main.dbfmain_size = 128ctl_path = +DMDATA/data/dsc/dm.ctlctl_size = 8log_size = 2048dcr_path = /dev/raw/raw1dcr_seqno = 0auto_overwrite = 1PAGE_SIZE = 32[DSC0]config_path = /opt/dsc/config/dsc0_configport_num = 5236mal_host = 192.168.1.1mal_port = 9340log_path = +DMLOG/log/dsc0_log01.loglog_path = +DMLOG/log/dsc0_log02.log[DSC1]config_path = /opt/dsc/config/dsc1_configport_num = 5236mal_host = 192.168.1.2mal_port = 9341log_path = +DMLOG/log/dsc1_log01.loglog_path = +DMLOG/log/dsc1_log02.log注意:AB机器该文件相同。

4.8初始化数据库在A机器上启动dminit工具初始化数据库,然后会在config目录下生成dsc0_config和dsc1_config目录,每个目录下都有dm.ini和dmmal.ini。

将A机器上生成的dsc1_config目录剪贴到B机器的config目录下4.9配置 dmarch.ini将AB机器上dm.ini中的ARCH_INI设置为1,然后配置dmarch.ini文件在A机器的/opt/dsc/config/dsc0_config下新建dmarch.ini文件在B机器的/opt/dsc/config/dsc1_config下新建dmarch.ini文件4.10启动DMSERVER服务A机器B机器4.11设置后台启动脚本DMCSS后台服务脚本,DMASM后台服务启动脚本,实例DMSERVER后台启动脚本。

A机器[root@bin]# cp /opt/dsc/dmdbms/bin/service_template/DmASMSvrService /etc/rc.d/init.d/DmServiceASM [root@bin]# cp /opt/dsc/dmdbms/bin/service_template/DmCSSService /etc/rc.d/init.d/DmServiceCSS [root@bin]# cp /opt/dsc/dmdbms/bin/service_template/DmService /etc/rc.d/init.d/DmServiceDSC[root@bin]# vi /etc/rc.d/init.d/DmServiceASMINI_PATH="/opt/dsc/config/dmdcr.ini"[root@bin]# vi /etc/rc.d/init.d/DmServiceCSSINI_PATH="/opt/dsc/config/dmdcr.ini"[root@bin]# vi /etc/rc.d/init.d/DmServiceDSCINI_PATH="/opt/dsc/config/dsc0_config/dm.ini"DCR_INI_PATH="/opt/dsc/config/dmdcr.ini"[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc0.d/K02DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc2.d/S98DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc3.d/S98DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc5.d/S98DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc6.d/K02DmServiceCSS[root@ bin]# chown dmdba.dmdba /etc/rc.d/init.d/DmServiceCSS[root@ bin]# chown dmdba.dmdba /etc/rc.d/init.d/DmServiceASM[root@ bin]# chown dmdba.dmdba /etc/rc.d/init.d/DmServiceDSC[root@ bin]# chmod 777 /etc/rc.d/init.d/DmServiceASM[root@ bin]# chmod 777 /etc/rc.d/init.d/DmServiceCSS[root@ bin]# chmod 777 /etc/rc.d/init.d/DmServiceDSC删除自启B机器[root@bin]# vi /etc/rc.d/init.d/DmServiceASMINI_PATH="/opt/dsc/config/dmdcr.ini"[root@bin]# vi /etc/rc.d/init.d/DmServiceCSSINI_PATH="/opt/dsc/config/dmdcr.ini"[root@bin]# vi /etc/rc.d/init.d/DmServiceDSCINI_PATH="/opt/dsc/config/dsc1_config/dm.ini"DCR_INI_PATH="/opt/dsc/config/dmdcr.ini"[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc0.d/K02DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc2.d/S98DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc3.d/S98DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc5.d/S98DmServiceCSS[root@ bin]# ln -s /etc/rc.d/init.d/DmServiceCSS /etc/rc.d/rc6.d/K02DmServiceCSS[root@ bin]# chown dmdba.dmdba /etc/rc.d/init.d/DmServiceCSS[root@ bin]# chown dmdba.dmdba /etc/rc.d/init.d/DmServiceASM[root@ bin]# chown dmdba.dmdba /etc/rc.d/init.d/DmServiceDSC[root@ bin]# chmod 777 /etc/rc.d/init.d/DmServiceASM[root@ bin]# chmod 777 /etc/rc.d/init.d/DmServiceCSS[root@ bin]# chmod 777 /etc/rc.d/init.d/DmServiceDSC删除自启4.12启停集群启动:A机器CSS→B机器CSS①A机器:service DmServiceCSS start②B机器:service DmServiceCSS start说明:必须同时启动AB机器服务,根据目前脚本配置,CSS启动后30秒自动拉起DmServiceASM,ASM启动后1分钟自动拉起DmServiceDSC,可以通过进程查看,3个服务都启动后DSC可以正常访问。

相关文档
最新文档