EMC存储阵列镜像实施
EMC_VNX_5600数据存储实施方案
EMC存储实施和维护手册2015年3月31日目录一、项目概述 (3)二、存储系统总体概述 (4)2.1、本项目EMC存储系统架构 (5)2.2、服务器信息 (6)2.3、存储管理信息 (7)2.4、存储划分 (8)三、实施过程 (9)3.1、登录 (10)3.2、配置RAID (12)3.3、创建H OT S PARE (14)3.4、创建LUN (15)3.5、创建S TORAGE G ROUP (16)3.6、指派LUN (19)3.7、指派主机 (20)四、VNX日常管理和维护 (23)4.1、开关机注意事项及详细步骤 (24)4.1.1、开机前注意事项 (25)4.1.2、关机前注意事项 (26)4.2、日常健康检查 (27)4.3、VNX报修 (28)一、项目概述医院业务发展需要,结合当时原有应用服务器的现状,为提高系统整体性能,保证数据安全性、可靠性,而对PACS应用部署一台EMC VNX5600存储。
二、存储系统总体概述2.1、本项目EMC存储系统架构系统环境描述:3台系统为Windows2008 R2 的PACS服务器,1台VNX5600存储,分别通过光钎交换机连接。
拓扑如下:VNX5600 SN:CETV21505000142.4、存储划分2.4.1、RADI:主机扩展柜图列:2.4.2、LUN:2.5、主机、交换机、阵列连接阵列到交换机的连接:阵列SPA通过光钎与交换机0口连接;阵列SPB通过光钎与交换机1口接连;阵列SPA、SPB两个网络管理端口连接到网络交换机;主机到交换机的连接:主机(主机名)一块HBA卡与交换机4口连接;三、实施过程3.1、登录配置管理IP地址:在管理界面中选择“Settings”=》“Network Settings”=》“Edit Networking Settings –SPA/SPB”填写规划好的IP地址、网关地址、子网掩码。
通过IE浏览器输入EMC 存储管理地址:Http://192.168.100.199/,输入账户名和密码,打开管理界面。
戴尔EMC存储系统PowerStore Unity XT Metro Node 功能的管理员指南
Dell EMC 存储系统PowerStore 和 Unity XT Metro Node 功能的管理员指南Version 7.0注意、小心和警告:“注意”表示帮助您更好地使用该产品的重要信息。
:“小心”表示可能会损坏硬件或导致数据丢失,并告诉您如何避免此类问题。
:“警告”表示可能会导致财产损失、人身伤害甚至死亡。
版权所有 © 2020 2021 Dell Inc. 或其子公司。
保留所有权利。
Dell、EMC、Dell EMC 和其他商标为 Dell Inc. 或其子公司的商标。
Dell® / EMC® / Dell EMC® 等品牌商标将有可能同时出现在戴尔易安信相关企业级产品 (包括硬件和软件),和/或产品资料、戴尔易安信的官方网站。
如果您有有关戴尔易安信产品相关的任何疑问,欢迎联系您的指定客户经理。
其他商标可能是其各自所有者的商标。
章 1: CLI 工作区和用户帐户 (7)配置 CLI 工作区 (7)设置控制台日志记录的阈值 (7)将窗口宽度设置为 100 (8)上下文树搜索 (8)章 2: 元数据卷 (9)关于元数据卷 (9)元数据卷性能和可用性要求 (9)移动元数据卷 (10)重命名元数据卷 (10)删除元数据卷 (11)显示元数据卷 (11)验证元数据卷的一致性 (13)章 3: 系统管理 (14)Call Home 通知 (14)关于 Call Home 通知 (14)其他文档 (15)事件日志位置 (15)通过 VAAI 进行硬件加速 (15)Compare and Write (16)WriteSame (16) (18)启用/禁用 WriteSame (16) (18)使用 XCOPY 减少拷贝开销 (19)使用 CLI 启用和禁用 XCOPY (19)显示 XCOPY 统计信息 (20)重命名 Metro Node 群集 (20)LCD 前面板设置 (21)章 4: Metro Node 中的精简支持 (22)Metro Node 中的精简支持 (22)精简资源调配 (23)创建支持精简功能的虚拟卷 (23)更改虚拟卷的精简特性 (24)精简存储管理 (25)精简镜像和迁移 (26)执行精简镜像 (26)关于精简迁移 (27)章 5: 调配存储资源 (28)资源调配概述 (28)使用 EZ 资源调配来调配存储资源 (28)目录3章 6: 卷扩展 (30)概述 (30)其他文档 (30)卷扩展方法 (30)使用 CLI 列出 expansion-method 属性 (30)使用 Unisphere 列出 expansion-method 属性 (31)扩展虚拟卷 (32)存储卷扩展方法 (32)限制 (34)章 7: 数据迁移 (36)关于数据迁移 (36)一次性迁移 (36)限制 (36)批量迁移 (36)执行数据迁移的常规步骤 (36)迁移支持精简功能的存储 (37)关于重建 (40)为经过精简资源调配的存储重建 (40)性能注意事项 (41)一次性数据迁移 (41)启动一次性设备迁移 (41)监视迁移的进度 (42)暂停/恢复迁移(可选) (43)取消迁移(可选) (43)提交已完成的迁移 (44)清理迁移 (44)删除迁移记录 (44)批量迁移 (45)前提条件 (45)创建批量迁移计划 (45)检查批量迁移计划 (45)修改批量迁移文件 (46)启动批量迁移 (46)暂停/恢复批量迁移(可选) (47)取消批量迁移(可选) (47)监视批量迁移的进度 (47)查看批量迁移的状态 (48)提交批量迁移 (48)清理批量迁移 (49)删除批量迁移记录 (49)章 8: 配置 WAN 网络 (50)Metro Node 硬件和 WAN 端口 (50)基于 IP WAN 的 Metro 端口配置规则 (50)端口组 (50)CLI 上下文 (50)4目录/connectivity/back-end/ (53)/connectivity/front-end/ (53)/connectivity/local-com/ (53)管理和监视后端网络 (53)从服务中排除具有高延迟的后端 IT Nexus (54)由于性能不稳定,将后端 IT Nexus 标记为隔离 (54)LDAP (55)目录结构 (55)示例(ldapsearch 命令) (55)章 9: 一致性组 (57)关于 Metro Node 一致性组 (57)同步一致性组 (57)一致性组的属性 (60)可见性 (60)Storage-at-clusters (61)分离规则 (61)Auto-resume-at-loser (62)Virtual-volumes (63)管理一致性组 (63)创建一致性组 (63)将卷添加到一致性组 (65)从一致性组中删除卷 (65)修改一致性组属性 (66)修改示例:设置可见性 (67)修改示例:应用分离规则 (68)删除一致性组 (68)显示一致性组属性 (69)操作一致性组 (73)回滚后恢复 I/O (74)在失败群集上恢复 I/O (75)设置只读属性 (76)章 10: 性能和监控 (78)关于性能 (78)RPO 和 RTO (78)关于性能监控 (78)使用适用于 Metro Node 的 Unisphere 进行性能监控 (79)使用 Metro Node CLI 进行性能监控 (80)使用 CLI 监视性能 (80)关于文件轮换和时间戳 (80)过程概述:使用 CLI 创建监控器 (81)创建监控器 (82)添加/删除监视接收器 (82)删除监控器 (84)启用/禁用/更改轮询 (86)启用/禁用接收器 (87)目录5入门 (87)设置用于通过电子邮件发送报告的脚本 (88)检查脚本状态 (88)调整阈值(如果需要) (89)端口统计信息监视用途信息 (89)输出示例 (90)需要注意的内容 (91)统计信息 (92)显示可用统计信息 (92)前端性能统计信息 (93)统计信息表 (94)附录 A: 具有主动-被动存储阵列的 Metro Node (104)主动-被动阵列 (104)已启用 ALUA 模式的阵列 (104)逻辑单元故障切换执行 (104)逻辑单元故障恢复 (105)索引 (106)6目录1CLI 工作区和用户帐户本章介绍如何使用 Metro Node 命令行界面 (CLI) 配置 CLI 工作区和管理用户帐户。
EMC存储容灾种解决方案(专业方案)
• 与存储容量无关,未来扩容不需要额外增加License。
• 主、备阵列具有完全一样的数据。 • 可以从 EMC存储管理软件 Uisphere 软件中方便地管理
• 在阵列上操作并且对所有服务器和应用程序是透明的
• 当主阵列因故障宕机,预先写好的脚本切断两个阵列之间的复制关系,容灾中 心服务器启用(激活)容灾阵列,业务继续在容灾中心运行。最快可在几分钟 内将业务恢复。应用上对IP等需要做一定的调整。
S T
MirrorView/S 或 MirrorView/A 克隆 快照
快照
克隆
进行处理的本地和远程快照
S = 源 T = 目标
© Copyright 2010 EMC Corporation. All rights reserved.
9
MirrorView方案特点
• 基于存储层提供同步选项,性能较好。且不占用主机资源。
© Copyright 2010 EMC Corporation. All rights reserved.
10
成功案例
• • • • • • • • • • • • 厦门BRT 厦门大学附属中山医院 厦门卫生局 厦门嵩屿集装箱码头有限公司 厦门建行 厦门农行 七匹狼 劲霸 广发华福证券 福州传染病医院 广西民族医院 ( 2 * CX4-240) „„
© Copyright 2010 EMC Corporation. All rights reserved.
8
使用案例:使用 MirrorView 进行灾难恢复
灾难恢复整合(4:1 扇入)
MirrorView/S 或 MirrorView/A S S S S T T T T 集中式 数据中心 S S T2 T2 远程位置 灾难恢复 T1 T1 备份报告 决策支持 系统
EMC存储设备扩容方案说明
EMC存储设备扩容方案1.项目背景客户目前在数据中心使用1套EMC CX-240磁盘阵列柜,包括 15块600G 光纤盘及相关配件线缆。
客户考虑未来3~5年业务发展,需要对磁盘柜进行扩容,以满足公司未来业务发展需要。
同时,通过本次硬件升级对存储性能调优,提高整体系统性能。
2.项目需求计划对现有EMC CX4-240统一存储系统进行9TB裸容量的SAS磁盘的扩容,为CX4-240提供1个磁盘扩展柜,增加15块600G SAS磁盘及相关服务及维保。
●为CX4-240 磁盘系统提供扩容安装及相关服务及维保。
●负责设备安装调测、策略制定等服务。
●磁盘阵列划分卷及增加原卷容量服务。
3.项目建设及目标本项目目标是通过本次磁盘阵列扩容,对存储进行优化处理,降低使用成本,提高应用性能和工作效率,帮助用户最大限度地提高生产率,减少总拥有成本。
4.方案实施4.1 整体方案实施∙在本方案中,对现有EMC CX4-240存储进行9TB裸容量扩容。
∙EMC CX4-240增加15块600Gb SAS盘,解决存储空间不足问题。
4.2扩容方案本次项目实施完毕后,可以满足用户公司当前业务需求和未来业务发展需要,同时,通过硬件升级及性能调优,提高整体系统性能,最大程度上保护用户的投资。
1、客户需求客户要求在原有LUN上进行容量扩容,可以采用MetaLUN方式。
2、EMC MetaLUN解决方案MetaLUN是一个LUN类型,最大容量为所有组成它的LUNs的容量的和。
MetaLUN 功能可以让你动态地扩展单个LUN(Base LUN)的容量为一个叫做MetaLUN的更大的单元。
你可以通过添加LUNs到Base LUN来实现,你也可以添加LUNs到一个MetaLUN,进一步增加它的容量,跟LUN一样,MetaLUN也可以属于一个Storage Group,也可以参与SnapView,MirrorView和SAN Copy会话,MetaLUN只在CX-Series存储系统上支持。
EMC_MirrorView~S实施文档
一、容灾手册生产主机环境如下:1.1、生产系统环境检查1.1.1生产端主机系统环境检查1、确认数据库系统运行正常C:\Documents and Settings\wjs_emr>crsctl check crsCSS appears healthyCRS appears healthyEVM appears healthyC:\Documents and Settings\wjs_emr>srvctl status database -d jhemr 实例jhemr1 正在节点emra 上运行实例jhemr2 正在节点emrb 上运行2、查看磁盘及多路径状态(1)在计算机管理-----磁盘管理下应该看到三块没有盘符的逻辑驱动器,磁盘状态为基本、连机;文件系统为RAW。
(2)在powerpath多路径软件中查看到三块磁盘,状态均为active。
每块磁盘正常应该显示4条路径,均为acvive模式,如下图所示:若出现dead的链路,请检查主机到存储所有光纤连接。
1.1.2 Mirror路径状态检查注:登陆存储管理界面后,点左上角图标可选择生产存储VNX5500-master进行配置,或者选择容灾端存储VNX5500-slave进行操作。
1、登陆到生产端存储系统(VNX5500-master)的管理界面--------HOSTS--------Connectivity Status-----Mirror,确认两条Mirror路径正常。
2、登陆到生产端存储系统(VNX5500-slave)的Navisphere---HOSTS---Connectivity Status-----Mirror,确认Mirror两条路径正常3、若Mirror路径出现故障,则检查Data Protection-----Manager Mirror Connection 主备存储正常mirror状态如下图显示:SPA:Y SPB:Y若显示如下图所示,表示容灾线路出现故障,请重新选择Data Protection-----Manager Mirror Connection----按enable按钮。
EMCCX600光纤存储阵列简单安装手册
EMC CX600 光纤存储阵列简单安装手册一.硬件安装1. CX600 需要配置双控制器;2. 每控制器提供4个2GB LC接口,连接主机;3. DAE2 磁盘柜至少需要5块硬盘,插在ID0-ID4 。
4. 连接光纤线到SAN 交换机,也可以直接连接主机。
5. 连接RS232线到串口,连接网线。
6. 如果有添加的DAE 磁盘柜,需要连接光纤线到SP;设置每个DAE 的ID 号7. 连接SPS线缆至SP。
二.Array 初始化1. 设置PPP连接选择网络邻居,创建新的直接连接。
使用Guest帐号,选择COM 端口。
使用115200速率,硬件流控。
登陆帐号是"Clariion@clarrion!" 。
2.SP设置首先连接串口线至SPA,打开PPP连接。
在IE 中输入“ Http://192.168.1.1/setup 默”认(的SPIP Address。
修改SP 的IP Address,Hostname,Subnet Mask重; 要的Peer Ip Address(SPB的IP Address;默认的端口号。
然后选择“ Apply Settings ”;重SP启A。
连接串口线到SPB,打开PPP连接。
在IE 中输入“ Http://192.168.1.1/setup 默”认(的SPIP Address。
修改SP 的IP Address,Hostname,Subnet Mask重; 要的Peer Ip Address(SPA的IP Address;默认的端口号。
然后选择“ Apply Settings ”;重SP启B。
连接串口线至SPA,打开PPP连接。
在IE中输入“Http://192.168.1.1/setup选择“”R,estart Managerment Serve确r 认”重, 启“CIMOM”。
3.Service UI可以使用Service UI连接,在“Management UI目”录下查找“index.html文”件,然后执行。
EMC vplex Isilon DD存储备份双活系统实施方案
2016年3月目录1.项目实施内容 (5)1.1存储系统架构示意图 (6)1.3本项目设备硬件配置 (6)2.存储系统实施基础配置 (7)2.1双活数据中心存储实现模式 (7)2.2光纤通道交换机端口连接表 (8)2.3VPLEX端口作用描述 (9)2.4VPLEX端口的使用 (9)2.5存储设备线路连接描述 (9)2.6存储设备端口命名规则 (10)3.SAN存储规划 (10)3.1存储设备连接线缆数量及种类 (10)3.2存储设备IP地址配置 (11)3.3VPLEX的端口连接配置 (11)4.VPLEX METRO实施步骤 (12)4.1VPLEX前期准备 (12)4.1.1 system volumes (12)4.2S WITCH ZONING (13)4.3B ACKEND STORAGE PROVISIONQ (13)4.4VPLEX INITIAL SETUP (13)4.4.1 Configip address and hostname of VPLEX (13)4.4.1.1 Connect to management server (13)4.4.1.2 entering the VPLEXCLI (14)4.4.1.3 set the management server ipaddress (14)4.4.1.4 change the hostname of VPLEX (14)4.4.1.5 check software version (14)4.4.2 use EZ-setup to initialize the VPLEX1 (15)4.4.2.1 Start EZ-setup (15)4.4.2.2 Configure the first cluster (15)4.4.2.3 Chose the local authentication (15)4.4.2.4 Configure event notification (15)4.4.2.5 Configure send system report to EMC (16)4.4.2.6 Configure performance statistics collector (16)4.4.2.7 Generate the certificate (16)4.4.2.8 Backend storage discovery (17)4.4.2.9 create meta-data volume (17)4.4.2.10 verify if meta-data volume is successfully created (18)4.4.2.11 create meta-data volume backups (18)4.4.2.12 enable FE port (18)4.4.3 use EZ-setup to initialize the VPLEX2 (18)4.4.3.1 Connect to VPLEX2 (18)4.4.3.2 Sychronize the time on the clusters (18)4.4.3.3 Start EZ-setup on cluster2 (19)4.4.3.4 Configure the Meta-data volume and backup of VPLEX2 (19)4.4.3.5 Complete configuration of cluster1 (19)4.4.3.6 Complete configuration of cluster2 (19)4.4.4 Join the clusters (19)4.4.5 Create logging volumes (20)4.5C HECK THE CLUSTER HEALTH (21)4.6VPLEX BACKEND STORAGE CONNECTIVITY VERIFY (21)4.7C LAIM THE DA TA VOLUME (21)5.ISILON的实施步骤 (23)5.1集群初始化 (23)5.2节点加入 (37)5.3系统健康检查 (38)5.4O NE FS升级 (38)5.5安装补丁包 (38)5.6系统微码升级 (38)5.7硬盘微码升级 (38)5.8管理界面登录 (39)5.9保护级别设置 (39)5.10网络设置 (40)5.10.1 内网设置 (41)5.10.2 外网设置 (41)5.11目录认证服务 (41)5.12SMB共享规划 (41)5.13NFS共享规划 (43)6DATADOMAIN配置步骤 (45)6.1D A TA D OMAIN配置之前实施内容 (45)6.2D A TA D OMAIN VTL配置 (46)7存储设备的使用示范 (55)7.1操作流程 (55)7.2操作示例 (56)7.2.1 光纤交换机操作部分 (56)7.2.2 EMC VNX7600操作部分 (59)7.2.3 VPLEX 操作部分 (62)1.项目实施内容XX公司双活数据中心灾备项目采用EMC VPLEX METRO解决方案,实现院区主机房和灾备机房容灾。
emc存储操作手册
emc存储操作手册
EMC存储操作手册是一本详细介绍EMC存储系统操作的指南。
这本手册通常包含以下内容:
1. EMC存储系统的基本概述:介绍EMC存储系统的组成部分、架构、工作原理等。
2. 硬件安装和配置:详细说明如何正确地安装和配置EMC存
储系统的硬件组件,如磁盘阵列、控制器等。
3. 存储池和卷管理:说明如何创建、配置和管理存储池和逻辑卷,包括创建RAID组、配置LUN等。
4. 主机连接和配置:解释如何与主机建立连接并配置主机端的存储访问路径,如FC、iSCSI等。
5. 数据备份和恢复:介绍如何配置和管理EMC存储系统的备
份和恢复功能,如快照、镜像等。
6. 性能优化和故障排除:提供性能优化和故障排除的方法和技巧,如调整存储策略、处理存储故障等。
7. 工具和管理软件:列举常用的EMC存储系统管理工具和软件,如Navisphere、Unisphere等,并说明如何使用它们进行
存储管理。
8. 安全和权限管理:讲解如何设置访问权限、用户身份验证等
安全措施,以保护存储系统中的数据安全。
9. 最佳实践和建议:提供一些EMC存储系统的最佳实践和使用建议,以帮助用户更好地使用和管理存储系统。
EMC存储操作手册是用户在使用EMC存储系统时的重要参考资料,可以帮助用户了解和掌握存储系统的操作技巧和管理方法,提高存储系统的性能和可靠性。
EMC MirrorView配置过程
EMC MirrorView配置过程前期准备1、在两台VNX存储上安装MirrorView/S的软件;2、将两台VNX存储加到同一个Domain中进行管理;3、确保两台VNX存储的控制器网络能相互通讯;4、在光交上将两台VNX存储的SPA_A0口和SPB_B0口划分到同一个ZONE中;5、在MirrorView的Secondary存储的两个控制器SPA与SPB上分别新建一个1G(大于128M)的Lun;VNX配置1、在Secondary存储上Data Protection界面选择〈Configure Mirror Write Intent Log>,分别选择两块1G的Lun用作Log记录使用;2、选择<Manage Mirror Connections>在〈Unconnected/Unknown Systems〉选项下降存储选中,点击〈Enable〉;Mirror View配置创建多块Lun的MirrorView查看Mirror View作业情况选择Primary Storage System存储,进入到<Data Protection〉页面,选择〈Mirrors>在这儿,可以查看MirrorView的作业选择具体的同步作业,点击〈Properties>查看作业的详细信息,包括源复制LUN和目标端复制LUN的信息在General界面,可以看到是哪台存储上的复制,同步类型是同步还是异步,复制作业的名称是什么;在Primary Image界面,可以看到VNX5600存储上面同步LUN的信息,包括LUN的名字,LUN的ID,LUN的大小,和该LUN的磁盘类型;在Secondary Image界面,可以看到VNX5200镜像存储端的信息,包括镜像LUN的名字,当前状态,LUN的ID,LUN的大小,LUN所在磁盘的类型和最为重要的同步进度。
MirrorView 的操作当VNX5600存储和VNX5200存储镜像卷同步完成后,可以对该MirrorView作业进行一些操作,包括删除同步作业,手动同步,暂停同步和同步反转<会反过来覆盖数据,慎用>。
LenovoEMC VNXe3150存储实施文档
网关IP:192.168.0.1
VNXe3150管理地址:192.168.2.100
VNXe3150 iSCSI IP:192.168.0.114
X3650 M3 iSCSI IP: 192.168.0.113
3、拓扑图如下:
4、机柜空间准备:
VNXe3150存储DPE(Disk Processor Enclosure)需要2U机柜空间,IBM X3650M3需要2U的机柜空间,所以在此机柜上共需要4U的机柜空间。
进入iSCSI Pool,可以查看相关属性。
6)配置LUN
选择Storage下的Generic iSCSI Storage,进行LUN创建。
执行创建。
输入名称。
选择前面创建的Pool。
选择不配置磁盘资源保护,如果有快照需求可依照实际情况选择。
关联主机,可以修改IQN。
核对信息。
配置完成,界面会出现刚创建的LUN,时间稍长。
核对配置信息,选择完成。
完成设置。
5)创建Storage Pools
进入System,选择Storage Pool-->Unconfigured Pool。
选择未配置的磁盘。
选择自动配置pool,这里VNXe系统会根据待配置磁盘类型进行相关配置。
执行下一步,继续依照向导配置。
配置完毕。
查看现有Pool,会出现Capacity Pool。
联想EMCVNXe3150存储实施文档
中国银行湖南省分行中小企业部
新业务平台系统实施文档
一、项目背景
某公司新业务平台建设,基础环境包含1台Lenovo|EMC VNXe3150存储和1台IBM X3650M3服务器。
EMC MirrorView实施报告
xx客户EMC MirrorView/S实施报告Version1.0第一章 项目介绍xx 客户原有的存储系统为一台EMC CX3-20,现在在原有的存储系统中新加入一台EMC CX3-20F,并通过EMC MirrorView/S 实现两台磁盘阵列的数据同步。
两个磁盘阵列在同一个机柜,实现数据的同步复制,实现数据在不同存储系统的灾难保护。
两个磁盘阵列的连接拓扑图如下:1. 用光纤线将两个阵列每个控制器的第1号端口直连用作MirrorView 专用传输端口。
注意:SPA 和SPB 要一一对应。
如果是连接到光纤交换机,需要建立专门的zone 。
MirrorView 一般采用高位端口原则,即用最高位端口专门用作MirrorView,但此处CX3-20F 用第1号端口。
2. 确认两个阵列都安装了MirrorView/S 软件。
通过NST 或进入Engineer Mode 进行软件的安装。
3. 考虑到新的EMC CX3-20F 性能更优,在第一次数据完全同步后,进行switch-over ,对新EMC CX3-20F 进行角色提升,进行角色切换,使新EMC CX3-20F 成为Primary 阵列,原有的EMC CX3-20降级为Secondary 阵列。
4. 磁盘阵列控制器的IP 地址:5.LUN规划(两个存储系统相同):第二章配置过程一、分配write intent log在两个磁盘阵列上各自单独绑定bind 2个512MB的LUNs,确保这2个LUN使用了write cache。
也分配WIL在secondary系统上,为promoted转换角色之后使用。
分配给WIL的LUN至少为128MB。
在第一次数据完全同步后,如果2个存储系统出现链路中断或Secondary阵列故障,通过Fracture log记录中断后没有同步的记录,在链路恢复或Secondary阵列修复后,通过Fracture log可以进行增量同步而不需要避免进行完全同步工作,Fracture log存储在磁盘阵列的内存里。
EMC 存储虚拟化VPlex解决方案-revised
EMC 存储虚拟化VPlex解决方案-revisedEMC 存储虚拟化VPlex解决方案前言信息是金融行业的命脉, 近十年来信息存储基础设施的建设在金融业取得长足的进步。
从内置存储转向外置RAID存储,从多台服务器共享一台外置RAID阵列,再到更多台服务器通过SAN共享更大型存储服务器。
存储服务器容量不断扩大的同时,其功能也不断增强,从提供硬件级RAID保护到独立于服务器的跨磁盘阵列的数据镜像,存储服务器逐渐从服务器外设的角色脱离出来,成为单独的“存储层”,为数据中心的服务器提供统一的数据存储,保护和共享服务。
随着金融业的不断发展,对IT系统尤其是存储系统的要求越来越高,鉴于金融业由于信息的重要性,监管部门要求各金融机构建议多中心来预防单一数据中心操作性风险。
多数据中心建设方案可以预防单数据中心的风险,但面对多数据中心建设的巨额投资,如何同时利用多数据中心就成为IT决策者的首要问题。
同时利用多数据中心就必需实现生产数据跨中心的传输和共享,总所周知,服务器性能的瓶颈主要在IO部分,数据在不同中心之间的传输和共享会造成IO延时,进而影响数据中心的总体性能。
同时,各家厂商不断推出新技术,新产品,容量不断扩展,性能不断提高,功能越来越丰富,但由于不同存储厂商的技术实现不尽相同,用户需要采用不同的管理界面来使用不同厂商的存储资源。
这样,也给金融业用户带来不小的问题,首先是无法采用统一的界面来让服务器使用不同厂商的存储服务器,数据在不同厂商存储服务器之间的迁移也会造成业务中断。
作为信息存储行业的领先公司,EMC公司针对金融业客户异构存储统一管理和跨数据中心信息传输和共享的迫切需求,推出存储VPlex解决方案,很好的解决了这些问题。
本文随后将介绍VPlex产品及其主要应用场景,供金融行业信息存储管理人士参考。
一VPlex产品及功能概述EMC存储虚拟化VPlex解决方案用于在金融行业数据中心内、跨数据中心和在数据中心之间进行信息虚拟化、访问、共享和迁移。
emc MirrorView实施文档
MirrorView/S 技术实施文档1.EMC MirrorView介绍MirrorView是基于盘阵之间,以LUN为单位的远程复制软件.适于与CX,CX3系列(CX200,CX300除外),MirrorView分为MirrorView/S(同步),MirrorView/A(异步).enabler分别为MirrorViewEnabler_01.xx.5.yyy.ena, MVAEnabler_01.xx.5.yyy.ena.2.EMC MirrorView/S实施路线图-确认生产盘阵和镜像盘阵之间FLARE版本是否一致(至少大版本要一致).-建立生产盘阵和镜像盘阵之间的物理连接,不同型号的盘阵镜像端口(用于做MirrorView的port口)略有不同:Port 5 for a CX3-20c or CX3-40c SPPort 3 for a CX600, CX700, or CX3-80 SPPort 1 for a CX400, CX500, CX3-20, or CX3-40 SP-启用MirrorView enabler启用MirrorView enabler需要盘阵无I/O操作-分配write intent logEMC官方建议分配两个128MB的LUN做为write intent log使用.如果不分配write intent log,系统会占用SP的MEM做为write intent log.-建立MirrorView connection由于CX700的SP port口是短波模块,适用与短距离传输,如果要做MirrorView的距离很长,需要通过交换机(交换机之间通过长波模块做级联)用单模光纤线连接(黄色).-创建remote mirror创建MirrorView的源LUN.-添加secondary image关联MirrorView的源LUN和镜像LUN.-创建consistency group如果源LUN之间有关联关系,需要一起添加到consistency group中来保证源LUN间数据的一致性.-测试MirrorView通过promote来转化primary image和secondary image的角色.通过fracture来断开primary image和secondary image的同步.以上是MirrorView/S实施路线图,下面结合用户环境逐一详细说明实施步骤.3.用户环境描述用户需求: 将South CX700的数据和应用迁移到North CX700上,迁移完毕后,South CX700变成容灾环境,而North CX700变成生产环境.North CX700通过MirrorView/S同步South CX700数据,并做主备之间的切换测试,验证数据的一致性.4.FLARE升级及MirrorView enabler启用由于South CX700 FLARE版本太低,如果不升级会导致做MirrorView时建立不了consistency group.在升级时,由于SP会重启,会涉及到路径切换,因此强烈建议在没有读写I/O时,实施FLARE升级.首先,通过NST软件或者navisphere界面中的sofeware installation wizard,来升级FLARE.-NST软件--software installation wirard-由于用户FLARE版本太低,这里只能通过software installation wirard来升级.升级过程如下:点击Next.通过浏览选中本地电脑中的FLARE 这里是CX700-Bundle-02.19.700.5.045.pbu,点击Next.点击Next,开始升级,在升级的过程中一定要保证网络的畅通及不要随意重启盘阵,中断升级,整个升级大约需要40分钟.升级完毕后,继续通过SIW启用MirrorView,选中MirrorView正式license,点击Next.启用MirrorView后,可以在盘阵属性->software中,看到升级后的software 状态.如果确认升级后,盘阵无异常现象,点击commit,系统会删除旧的FLARE.注意事项:升级FLARE或启用Mirrorview enabler时,尽管停止了所有I/O操作,系统还是报有I/O操作点击不了NEXT,这时需要把读写缓存禁用,然后就可以继续升级了.5.North CX700&South CX700物理连接用户的物理连接如下:- North CX700 SPA03(短波SFP)-(短波SFP)North交换机top(长波SFP)-(长波SFP)South交换机top(短波SFP)-South CX700 SPA03(短波SFP)- North CX700 SPB03(短波SFP)-(短波SFP)North交换机bot(长波SFP)-(长波SFP)South交换机bot(短波SFP)-South CX700 SPB03(短波SFP)物理连接完毕后, 配置用于做MirrorView的zone,Zoning配置:Zone1: North SPA03,South SPAO3Zone2: North SPB03,South SPB03注意事项:CX 700 SPA03,SPB03既可以连接主机也可以用于MirrorView,可以同时使用,条件允许的情况下,尽量只用于MirrorView.6.分配Write Intent Log由于用户有反向镜像的需求,所以需要再两台盘阵上各创建两个LUN,创建完毕后,分别分配为Write Intent Log.分配完Write Intent Log,在Private LUNs中可以看到Write IntentLog.7.建立MirrorView connectionSouth CX700和North CX700物理连接建立后,zoning配置正确后,选择MirrorView ->Manage Mirror Connections.选中另一台盘阵,点击Enable.8.创建remote mirror选中MirrorView->Create Remote Mirror.输入Name名称,选中Use Write Intent Log.选中要做MirrorView的LUN,点击确定.按以上顺序依次创建remote mirrorsynclun0,sysnclun1,sysnc5,synclun6,synclun7,synclun8.9.添加secondary image选中synclun0,选择Add Secondary Image.选择MirrorView的目标LUN,点击确定,系统自动开始做同步.依次向其余synclun中添加secondary Image。
EMC VNX MirrorView阵列复制技术
EMC VNX MirrorView阵列复制技术EMC 基于中端存储的复制技术有两种方式:同步方式和异步方式,说明如下:同步方式,可以做到主/备中心磁盘阵列同步地进行数据更新,应用系统的I/O写入主磁盘阵列后(写入Cache中),主磁盘阵列将利用自身的机制同时将写I/O写入后备磁盘阵列,后备磁盘阵列确认后,主中心磁盘阵列才返回应用的写操作完成信息。
异步方式,是在应用系统的I/O写入主磁盘阵列后(写入Cache中),主磁盘阵列立即返回给主机应用系统“写完成”信息,主机应用可以继续进行读、写I/O 操作。
同时,主中心磁盘阵列将利用自身的机制将写I/O写入后备磁盘阵列,实现数据保护。
采用同步方式,使得后备磁盘阵列中的数据总是与生产系统数据同步,因此当生产数据中心发生灾难事件时,不会造成数据丢失。
而采用异步方式应用程序不必等待远程更新的完成,因此远程数据备份的性能的影响通常较小,并且备份磁盘的距离和生产磁盘间的距离理论上没有限制。
EMC 同步异步数据复制技术特点:1.采用EMC MirrorView同步模式数据复制技术有以下特点:•数据一致性保障–两个数据中心的数据完全保持一致,没有任何数据差异。
•距离限制–支持最大200KM的数据同步复制•不需要服务器资源–独立于服务器操作系统、应用程序和文件系统–有效的带宽利用率•最好的系统可扩展能力–与应用、操作系统、数据库、网络透明使扩展变的很方便,包括容量的扩展、应用的扩展。
•易管理–用基于 Web 的Unisphere 管理套件 GUI 进行设置和管理2.采用EMC MirrorView异步模式数据复制技术有以下优点:•远距离复制–可定制的重启点(从几分钟到数小时乃至数天)•不需要服务器资源–独立于服务器操作系统、应用程序和文件系统–有效的带宽利用率•基于磁盘的副本加快了重启速度–始终都有一个可重启的数据“一致性”拷贝•简单且价格可接受–用基于 Web 的Unisphere 管理套件 GUI 进行设置和管理在经济高效的VNX平台上运行3.阵列复制技术对比阵列同步复制和异步复制技术特点对比如下:对于客户整体解决方案而言,由于数据中心存储与备份存储部署距离短,如采用MirrorView/S同步复制技术,不存在距离和链路的限制,线路中断风险较低,且同步复制可实现数据镜像,确保RPO为零。
EMC CLARiiON CX4系列存储平台 说明书
产品介绍以较少成本提供更多价值的中端创新Array EMC® CLARiiON® CX4 系列通过第四代 CLARiiON CX 存储平台在中端存储市场提供了业界领先的技术创新。
灵活、可扩展的硬件设计和高级软件功能以独特方式结合起来,使采用 Intel Xeon 处理器的 EMC CLARiiON CX4 系列系统能够满足今天大中型企业不断增长的各种需要。
通过创新性的技术(如闪存驱动器、UltraFlex™技术和 CLARiiON 虚拟资源调配),客户可以降低成本、能耗,并优化可用性和虚拟化。
从经济的入门级解决方案到可满足最苛刻要求的高性能、最大容量的配置,您选择的任何系统都具备这些能力。
功能强大的 CX4 系列包括 CX4 机型 120、CX4 机型 240、CX4机型 480 和 CX4 机型 960。
所有机型均预配置了光纤通道和 iSCSI 连接,允许客户为其特定的应用选择最佳连接技术。
与上一代 CLARiiON相比,CLARiiON CX4 的性能和规模提高了一倍,是领先的中端存储解决方案,可满足一系列需要—从部门应用程序到数据中心级的业务关键型系统。
EMC CLARiiON CX4 技术进步第“0”层闪存驱动器:EMC 定制的闪存驱动器技术可提供低延迟和高吞吐量,从而突破了传统磁盘技术的性能障碍。
EMC 是第一家向中端存储市场推出闪存驱动器的公司,而且我们预期该技术在今后几年内将成为主流,同时带来网络存储的革命。
闪存驱动器通过以下方式扩展了 CLARiiON 的存储分层功能:• 建立一个新的第“0”层存储,提供了 30 倍于 15K RPM 光纤通道驱动器的 IOPS• 始终如一地提供不超过 1 秒的响应时间• 每 I/O 能耗比 15K rpm 光纤通道驱动器少 98%• 每 TB 重量比典型的光纤通道驱动器减少 58%• 由于没有移动部件而且 RAID 重建速度更快,提供了更好的可靠性UltraFlex 技术:CLARiiON CX4 体系结构的突出特点是 UltraFlex 技术—此技术将模块化连接设计与独特的 FLARE®运行环境软件功能相结合,提供了:• 双协议支持,所有型号上都有光纤通道和 iSCSI 基本配置• 通过可热插拔 I/O 模块轻松实现在线扩展• 能够方便地添加和/或升级 IO 模块,以在未来的新技术(如 8 Gb/s 光纤通道、10 Gb/s iSCSI)推出时与它们相适应CLARiiON 虚拟资源调配:允许 CLARiiON 用户向应用程序呈现的容量多于在存储阵列中实际分配给它的容量。
EMC_VPlex存储双活建设方案详细
将VPlex不兼容的存储系统上的数据,通过第三方数据迁移工具迁移到VPlex存储资源池中;
4.
A.省局数据的备份:所有的备份数据,都通过备份软件平台进行管理,备份到虚拟带库DataDomain DD620中;备份服务器可以对备份集、备份空间、备份作业调度进行统一的管理,备份存储DD可以对所有写进来的备份数据进行重复数据消除;
VNX 7500还支持LUN的条带化或级联式扩展,以将数据分散到更多的磁盘上;
C.中心机房-存储虚拟化:以EMC VPlex Local作为存储虚拟化;应用系统只需要访问虚拟化存储,而不需要直接管理后端的具体的存储系统;通过存储虚拟化,可以达到两台存储之间双活,可以支持异构的存储系统,对数据进行跨存储的本地及远程保护,统一管理接口和访问接口;
EMC VNX 7500存储系统可同时提供光纤SAN、IP SAN、NAS等多种存储模式,最大可扩展到1000块磁盘,支持光纤盘、闪存盘、SATA盘、SAS盘、NL-SAS盘等多种磁盘混插,大大增强存储系统的可扩展性;
VNX 7500支持将闪存盘作为可读写的二级缓存来使用,VNX7500最大可支持2.1TB二级缓存。同时支持自动的存储分层(FAST),提高存储系统的整体性能;
当VPlex系统自身出现故障时,由于在Vplex中的设置,VPlex不会修改存储系统LUN的配置信息,即,用户可以将存储系统A或B的LUN直接挂到应用系统,保证应用系统的继续运行,不会产生数据丢失。
emc存储容灾技术解决方案
EMC VNX5400存储容灾技术解决方案2021年8月易安信电脑系统(中国)一、需求分析随着各行业数字化进程的推动,数据逐渐成为企事业单位的运营核心,用户对承载数据的存储系统的稳定性要求也愈来愈高。
虽然很多存储厂商能够向用户提供稳定性极高的存储设备,但仍是无法幸免各类自然灾难对生产系统造成不可恢复的损坏。
为了保证数据存取的持续性、可恢复性和高可用性,远程容灾解决方案应运而生,而远程复制技术那么是远程容灾方案中的关键技术之一。
远程复制技术是指通过成立远程容灾中心,将生产中心数据实时或分批次地复制到容灾中心。
正常情形下,系统的各类应用运行在生产中心的计算机系统上,数据同时寄放在生产中心和容灾中心的存储系统中。
当生产中心由于断电、火灾乃至地震等灾难无法工作时,则当即采取一系列相关方式,将网络、数据线路切换至容灾中心,而且利用容灾中心已经搭建的计算机系统从头启动应用系统。
容灾系统最重要的目标确实是保证容灾切换时刻知足业务持续性要求,同时尽可能维持生产中心和容灾中心数据的持续性和完整性,而如何解决生产中心到容灾中心的数据复制和恢复那么是容灾备份方案的核心内容。
本方案采用EMC MirrorView 复制软件基于磁盘阵列(VNX5300-VNX5400)的数据复制技术。
它是由磁盘阵列自身实现数据的远程复制和同步,即磁盘阵列将对本系统中的存储器写I/O操作复制到远端的存储系统中并执行,保证生产数据和备份数据的一致性。
由于这种方式下数据复制软件运行在磁盘阵列内,因此较容易实现生产中心和容灾容灾中心的生产数据和应用数据或目录的实时拷贝珍惜能力,且一样很少阻碍生产中心主机系统的性能。
假设是在容灾中心具有了实时生产数据、备用主机和网络环境,那么就可以够够够够当灾难发生后及时开始业务系统的恢复。
二、设计拓扑图设计说明:一、2台存储和业务效劳器同时接入到SAN网络中,彼此能访问;二、两台存储之间通过光鲜链路别离连接2个操纵器,实现存储冗余。
EMC官方标准存储项目实施报告
EMC官方标准存储项目实施报告EMC存储系统项目实施技术文档V E R S ION1.0客户名称:文档编号:完成日期:目录客户信息 (3)1.1客户联系信息 (3)存储系统总体概述 (5)2.1富士康科技集团存储系统架构 (5)2.2主机信息 (6)2.3管理信息 (6)2.4纤交换机基本配置信息 (6)2.5交换机端口分配 (6)2.6交换机Z ONE划分 (6)3.1 磁盘阵列的初使化 (6)磁盘阵列TAC (10)3.2.1 创建raid group (11)3.2.2 Bind lun (11)3.2.3 创建storage group (12)主机软件安装 (14)4.1P OWER P A TH的安装配置 (14)4.2N AVESPHER E A GENT的安装配置 (18) 4.3N AVESPHER E CLI的安装配置 (21)主机磁盘配置 (23)5.1磁盘分区及创建文件系统 (23)6.1 日常管理和维护 (25)6.1.1开关机注意事项及详细步骤 (25)开机前注意事项 (25)6.1.2关机前注意事项 (26)6.2如何用N AVI SPHER E看存储的状态 (27)如何用N AVI SPHER E看存储的状态 (30)收集主机信息 (32)客户信息1.1 客户联系信息客户名称:地址:邮编:第一联系人:职务:电话:Email第二联系人职务:电话:Email1.2 产品清单ItemNo Model No Product Description Quantity (序号)(产品号)(产品说明)(数量)1 CX4-120C CX4-120C SPE WITH SINGLE SPS 12 CX4-4PDAE 4G DAE FACTORY OR FIELD INSTALL 13 V-CX4-30015K VAULT PACK 300GB 15K4GB DRIVES QTY 5 14 CX412C-KIT CX4-120C DOCS COMMON RTU & POWERPATH 15 C13-PWR-3 2 C13 PWRCORDS W/ GB1002 PLUGS 250V 10A 26 NAV4-KIT Navisphere Manager CX4 Media Kit 17 NAVAGT-W INKIT NAVI AGENT WINDOWS MEDIA 18 CX4-SPS CX4-120 Optional Second SPS 19 NAV4-120 NAVISPHERE MANAGER FOR THE CX4-120 110 CLAR-RM-CHI CLRN REM MAINT MODEM KIT 111 WU-PREHW-001 PREMIUM HARDWARE SUPPORT - WARR UPG 112 M-PRESW-001PREMIUM SOFTWARE SUPPORT Includes months1-12 @ $ 10/mo.113 M-PRESW-004PREMIUM SOFTWARE SUPPORT -OPEN SWIncludes months 1-12 @ $ 10/mo.114 PS-BAS-PMBLK COMMERCIAL PMGMT 4HRS QS 115 CX-4G15-300U 300GB 15K 4GB FC 520BPS UPGRADE 2存储系统总体概述2.1 富士康科技集团存储系统架构RAID 组的划分Storager 信息2.2 主机信息2.3 管理信息登录帐号和密码是admin / password2.4 纤交换机基本配置信息无2.5 交换机端口分配无2.6 交换机Zone划分无3.1 磁盘阵列的初使化1、我们通过navisphere storage system initialization utility软件来对clariion 进行初始化配置,clariion的缺省ip地址为1.1.1.1,我们将运行初始配置软件的机器的IP地址配置为同一网段的ip,并和clariion的两个SP的网口接通。
EMC存储阵列镜像实施
EMC存储阵列镜像实施环境:两台p550做hacmp通过两台光纤交换机连接一台emc cx240安装oracle数据库要求:新增一台emc存储,对aix系统下的oravg做mirror实施过程:经查看aix系统下oravg下映射了四块盘,分别是hdiskpower0-3根据实际情况新存储划分四块盘,映射给两台p550,分别是hdiskpower4-7 1.给四块硬盘分配pvid。
chdev -l hdiskpower4 -a pv=yeschdev -l hdiskpower5 -a pv=yeschdev -l hdiskpower6 -a pv=yeschdev -l hdiskpower7 -a pv=yes2.将四块硬盘加入到oravg中。
extendvg oradatavg hdiskpower4 hdiskpower5 hdiskpower6 hdiskpower7 3.进入数据库,停止数据库。
su - oraclesqlplus /nologconn as sysdbashutdown immediate4.进入HACMP,停止HACMPsmitty hacmp->system management(C-SPOC)stop hacmp5.激活oravgvaryonvg oravg6.对oravg做mirrorsmitty mirrorvg选择oravgphysics disk 这个选择hdiskpower4-7copy 数量选择2即存两个副本同步完成后发现lpx2=pp。
使用lspv -l hdiskpower0查看7.待数据同步完成后在备机操作smitty exportvg选中oravgsmitty importvg选中oravg,任意选中一块oravg下的硬盘,如hdiskpower0 netstat -in ,lspv到此存储镜像操作完毕。
正常HA操作8.同步HA正常HA操作完成后同步HA# smitty hacmpExtended ConfigurationExtended Verification and Synchronization* Verify, Synchronize or Both [Both] +* Automatically correct errors found during [Interactively] +verification?* Force synchronization if verification fails? [No] +* Verify changes only? [No] +* Logging [Standard]9.启动HA# smitty hacmpSystem Management (C-SPOC)Manage HACMP ServicesStart Cluster Services* Start now, on system restart or both nowStart Cluster Services on these nodes [lyfg1,lyfg2]* Manage Resource Groups AutomaticallyBROADCAST message at startup? trueStartup Cluster Information Daemon? falseIgnore verification errors? falsbeAutomatically correct errors found during Interactivelycluster start?使用命令lssrc -g cluster查看ha状态实际情况待数据同步完成后HA无法正常启动,因白天业务需要办理,暂时启用单机运行。
EMC CX4存储系统实施文档
EMC CX4存储系统项目实施技术文档目录第一章存储系统总体概述 (2)●存储系统架构 (2)第二章磁盘阵列的安装 (3)●磁盘阵列的配置 (3)2.1.1 创建raid group (3)2.1.2 Bind lun (5)2.1.3 创建storage group (7)第四章主机端软件的安装 (10)4.1在WINDOWS上安装P OWER P A TH (10)4.3 Navesphere CLI的安装配置 (13)*如果POWERMT CONFIG 后,DISPLAY 没有发现LUN的路径的话,需要重启服务器。
然后重新执行CONFIG、DISPLAY、SA VE 命令 (15)第五章日常管理和维护 (16)5.1开关机注意事项及详细步骤 (16)开机前注意事项 (16)5.2关机前注意事项 (17)⏹如何用N A VISPHERE看存储的状态 (18)第六章EMC 报修流程 (21)第一章存储系统总体概述存储系统架构拓扑图如下:第二章磁盘阵列的安装磁盘阵列的配置先创建RAID GROUP(定义组成一个RAID的磁盘数量),再BIND LUN(逻辑上将RAID再分成主机识别的基本大小单元),最后创建STORAGE GROUP(将定义好的LUN和主机加到一个组里)。
2.1.1创建raid group如图:在盘阵序列号上点击右键,出现菜单,选择Creat Raid Group如图:点击Apply 。
点击Yes.创建成功。
在盘阵序列号上点右键,在菜单上选择Bind Lun,如图,在LUN Size 中输入我们需要的LUN 的大小,依次创建。
2.1.3创建storage group在界面中右键选择Storage Groups,,将创建好的LUN按照规划分配给Storage Group,同时将相应的主机划分到对应的Storage Group中。
如图:选择Create Storage Group,在弹出栏中输入我们要的Group名称。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
EMC存储阵列镜像实施环境:两台p550做hacmp通过两台光纤交换机连接一台emc cx240安装oracle数据库要求:新增一台emc存储,对aix系统下的oravg做mirror实施过程:经查看aix系统下oravg下映射了四块盘,分别是hdiskpower0-3根据实际情况新存储划分四块盘,映射给两台p550,分别是hdiskpower4-7 1.给四块硬盘分配pvid。
chdev -l hdiskpower4 -a pv=yeschdev -l hdiskpower5 -a pv=yeschdev -l hdiskpower6 -a pv=yeschdev -l hdiskpower7 -a pv=yes2.将四块硬盘加入到oravg中。
extendvg oradatavg hdiskpower4 hdiskpower5 hdiskpower6 hdiskpower7 3.进入数据库,停止数据库。
su - oraclesqlplus /nologconn as sysdbashutdown immediate4.进入HACMP,停止HACMPsmitty hacmp->system management(C-SPOC)stop hacmp5.激活oravgvaryonvg oravg6.对oravg做mirrorsmitty mirrorvg选择oravgphysics disk 这个选择hdiskpower4-7copy 数量选择2即存两个副本同步完成后发现lpx2=pp。
使用lspv -l hdiskpower0查看7.待数据同步完成后在备机操作smitty exportvg选中oravgsmitty importvg选中oravg,任意选中一块oravg下的硬盘,如hdiskpower0 netstat -in ,lspv到此存储镜像操作完毕。
正常HA操作8.同步HA正常HA操作完成后同步HA# smitty hacmpExtended ConfigurationExtended Verification and Synchronization* Verify, Synchronize or Both [Both] +* Automatically correct errors found during [Interactively] +verification?* Force synchronization if verification fails? [No] +* Verify changes only? [No] +* Logging [Standard]9.启动HA# smitty hacmpSystem Management (C-SPOC)Manage HACMP ServicesStart Cluster Services* Start now, on system restart or both nowStart Cluster Services on these nodes [lyfg1,lyfg2]* Manage Resource Groups AutomaticallyBROADCAST message at startup? trueStartup Cluster Information Daemon? falseIgnore verification errors? falsbeAutomatically correct errors found during Interactivelycluster start?使用命令lssrc -g cluster查看ha状态实际情况待数据同步完成后HA无法正常启动,因白天业务需要办理,暂时启用单机运行。
网卡增加IP地址ifconfig en0 192.168.100.102 netmask 255.255.255.0 up激活卷组varyonvg oravg业务停止后继续操作删除增加的ipifconfig en0 192.168.100.102 netmask 255.255.255.0 delete取消激活卷组varyoffvg oravg因HA一直不能正常切换,故重新配置HA。
实际环境操作先移除HA配置#smitty hacmp----->Extended Topology Configuration------>Remove an HACMP Cluster重新配置主机地址规划主机名ip-en0 ip-en1 服务IP 子网掩码lyfg1 192.168.168.10.10.10.3 192.168.100.102 255.255.255.0310.10.10.5 192.168.100.102 255.255.255.0 lyfg2 192.168.168.5#more /etc/hosts (lyfg1)192.168.168.3 lyfg1192.168.168.5 lyfg210.10.10.3 lyfg1_standy10.10.10.5 lyfg2_standy192.168.100.102 lygf_ser# more /etc/hosts (lyfg2)192.168.168.3 lyfg1192.168.168.5 lyfg210.10.10.3 lyfg1_standy10.10.10.5 lyfg2_standy192.168.100.102 lygf_ser1.配置Cluster Name# smitty hacmpExtended ConfigurationExtended Topology ConfigurationConfigure an HACMP ClusterAdd/Change/Show an HACMP Cluster* Cluster Name [ly_clus]2.配置Cluster节点# smitty hacmpExtended ConfigurationExtended Topology ConfigurationConfigure HACMP NodesAdd a Node to the HACMP Cluste*NodeName [lyfg1]Communication Path to Node [lyfg1] +以同样方法将NodeB添加到Cluster中*NodeName [lyfg2]Communication Path to Node [lyfg2] +3.创建IP网络# smitty hacmpExtended ConfigurationExtended Topology ConfigurationConfigure HACMP NetworksAdd a Network to the HACMP Cluster* NetworkName [net_ether_01]* NetworkType ether* Netmask [255.255.255.0] +* Enable IP Address Takeover via IP Aliases [no] +IP Address Offset for Heartbeating over IP Aliases []* Enable IP Address Takeover via IP Aliases [Yes] 此选项决定了HACMP的IP切换方式,但值得一提的是只有“boot”、“standby”、“service”三个IP分别为三个不同网段时必须选用IP Aliases方式。
如果“boot”、“standby”其中一个与“service”为同一个网段时必须选用IP Replace,则此选项应选“NO”。
4.创建串口心跳网络# smitty hacmpExtended ConfigurationExtended Topology ConfigurationConfigure HACMP NetworksAdd a Network to the HACMP Cluster* NetworkName [net_rs232_01]* Network Type rs2325.添加网络到Cluster创建IP通信接口# smitty hacmpExtended ConfigurationExtended Topology ConfigurationConfigure HACMP NetworksConfigure HACMP Communication Interfaces/DevicesAdd Communication Interfaces/DeviceAdd Pre-defined Communication Interfaces and DevicesCommunication Interfaces* IP Label/Address [lyfg1 ] +* Network Type ether* Network Name net_ether_01* Node Name [lyfg1] +Network Interface [] 将心跳再次添加* IP Label/Address [ lyfg1_standy ] +* Network Type ether* Network Name net_ether_01* Node Name [lyfg1] +Network Interface []同样方法添加另一个节点通信接口到”net_ether_01”* IP Label/Address [lyfg2] +* Network Type ether* Network Name net_ether_01* Node Name [lyfg2] +Network Interface [] 将心跳再次添加* IP Label/Address [ lyfg2_standy ] +* Network Type ether* Network Name net_ether_01* Node Name [lyfg2] +Network Interface [] 6.配置资源创建Applications Servers# smitty hacmpExtended ConfigurationExtended Resource ConfigurationHACMP Extended Resources ConfigurationConfigure HACMP Applications ServersAdd an Application Server* Server Name [oradb]* Start Script [/home/oracle/start.sh]* Stop Script [/home/oracle/stop.sh]7.创建Service IP# smitty hacmpExtended ConfigurationExtended Resource ConfigurationHACMP Extended Resources ConfigurationConfigure HACMP Service IP Labels/AddressesAdd a Service IP Label/AddressConfigurable on Multiple Nodes* IP Label/Address [lyfg_ser ] +* Network Name net_ether_01创建资源组# smitty hacmpExtended ConfigurationExtended Resource ConfigurationAdd a Resource Group* Resource Group Name [oraapp]* Participating Nodes (Default Node Priority) [lyfg1 lyfg2] +Startup Policy Online On Home Node O> +Fallover Policy Fallover To Next Prio> +Fallback Policy Fallback ToHigher Pr> +配置资源组属性# smitty hacmpExtended ConfigurationExtended Resource ConfigurationChange/Show Resources and Attributes for a Resource GroupResource Group Name [oraapp ]Participating Nodes (Default Node Priority) [lyfg1 lyfg2 ]Startup Policy Online On Home Node O>Fallover Policy Fallover To Next Prio>Fallback Policy Fallback To Higher Pr>Fallback Timer Policy (empty is immediate) []+Service IP Labels/Addresses [lyfg_ser] +Application Servers [oradb] +Volume Groups [bakvg oravg] + 注:因此时两台主机oravg和bakvg都未激活,此地需要手动填写Use forced varyon of volume groups, if necessary false+Automatically Import Volume Groups ture+Filesystems (empty is ALL for VGs specified) []+Filesystems Consistency Check fsck+Filesystems Recovery Method sequential+Filesystems mounted before IP configured false+Filesystems/Directories to Export []+Filesystems/Directories to NFS Mount []Network For NFS Mount []+Tape Resources []+Raw Disk PVIDs []+Fast Connect Services []+Communication Links []+Primary Workload Manager Class []+Secondary Workload Manager Class []+ 完成后如上同步HA,起HA操作步骤:关机:停止HA# smitty hacmpSystem Management (C-SPOC)Manage HACMP ServicesStop Cluster Services* Stop now, on system restart or both [now] +Stop Cluster Services on these nodes [lyfg1,lyfg2] +BROADCAST cluster shutdown? true+*Select an Action on Resource Groups bring Resource Groups+然后执行两台机器分别shutdown -Fh开机:两台机器先开主机,在开备机然后主机操作# smitty hacmpSystem Management (C-SPOC)Manage HACMP ServicesStart Cluster Services* Start now, on system restart or both [restart]Start Cluster Services on these nodes [lyfg1,lyfg2]* Manage Resource Groups AutomaticallyBROADCAST message at startup? trueStartup Cluster Information Daemon? falseIgnore verification errors? falsbeAutomatically correct errors found during Interactivelycluster start?如果选择now提示faild就选择restart再次启动即可。