EMC VPLEX安装实施方案

合集下载

EMCVPLEX数据中心虚拟化方案

EMCVPLEX数据中心虚拟化方案

02
方案设计
根据需求分析结果,设计符合客户需 求的虚拟化方案,包括资源分配、网 络设计、安全策略等。
01
03
安装部署
根据设计方案进行虚拟化软件的安装 和硬件资源的配置。
上线运行
将虚拟化系统正式投入使用,并进行 长期的监控和维护。
05
04
系统调试
对安装好的虚拟化系统进行调试,确 保系统的稳定性和性能。
实施效果
通过虚拟化方案的实施,该企业的数据中心性能得到了显著提升,同时降低了运营成本, 提高了服务质量和可靠性。容灾备份方案的实施也确保了数据的安全性和业务的连续性。
06
EMC Vplex未来展望与 总结
Vplex未来发展趋势
扩展性
Vplex继续提供更高的可扩展性,以满足不 断增长的数据需求。
安全
04
EMC Vplex解决方案详 解
Vplex数据中心架构
架构概述:Vplex数据中心架构是一种高 度可扩展的虚拟化平台,旨在提高数据 中心的效率、灵活性和可用性。
多租户支持:Vplex支持多租户隔离,为 不同业务部门提供独立的资源池。
分布式架构:Vplex采用分布式架构,可 扩展至数千个节点,满足大型企业的需 求。
02
数据中心虚拟化概述
什么是数据中心虚拟化?
数据中心虚拟化是一种将物理服务器和基础设施资源抽象成逻辑资源的技术,它 允许在一个物理服务器上运行多个虚拟机,每个虚拟机都有自己的操作系统和应 用程序。
数据中心虚拟化通过软件定义的网络和存储技术,将网络和存储资源划分为可动 态分配的虚拟机,从而提高了服务器的利用率,简化了管理流程,并降低了运营 成本。
纵向扩展:Vplex支持 纵向扩展,通过升级硬 件设备提高单节点的性 能和容量。

vplex方案

vplex方案

XXXX信息中心-存储升级项目方案版本号:1.0目录1.综述 (3)1.1项目目标 (3)2. XXXX存储升级项目方案 (4)2.1.数据库存储设备产品升级 (4)2.2.高可用的存储架构升级 (5)2.2.1.方案一:存储高可用方案 Vp le x+V NX5500+DS4800+DS5100 (6)2.2.2.方案二:存储升级方案 V NX5500 +Vmwa re S RM (7)3. EMC VNX 详细介绍 (8)3.1 VNX硬件 (8)3.2 VNX的软件 (10)4. EMC VPLEX 技术详细介绍 (13)4.1 VPELX 概述 (13)4.2 应用VPlex实现不停机数据迁移 (14)4.3 VPLEX 聚合信息中心并提供全天候 IT 服务 (15)4.4将VPlex应用于VMware虚拟化平台 (16)5. VMWARE SITE RECOVERY MANAGER 详细介绍 (17)1.综述1.1项目目标XX XXXX当前的业务架构主要分为数据库应用与虚拟机应用两个部分:数据库应用部署在4年前购置的DS4800存储之上(配置300GB,15K硬盘16块,1Tsata硬盘12块),数据库服务器为IBM p5-570;虚拟机环境使用EMC VNX5100作为存储,主机为DELL R910。

(还有部分非关键业务部署在旧的IBM DS3400以及Dell EMC存储之上,非本项目关注内容)本次项目目标为升级数据库存储(即IBM DS4800),新存储要达到更高的性能并提供20T的可用容量以应对XX业务数据的增长;同时调整存储系统架构,以提高数据库存储系统以及虚拟机存储系统的高可用性,打造高效、先进的绿色信息中心,降低TCO,提高资源的利用效率。

2. XXXX存储升级项目方案本项目包括存储产品的升级(替代DS4800)以及架构升级(提高数据保护级别,加强虚拟机数据备份)两个部分,详述如下:2.1.数据库存储设备产品升级针对XXXX的需求,推荐使用EMC VNX系列统一存储中的VNX5500产品替代IBM DS4800作为数据库的新存储。

EMCVxRail超融合平台-安装配置手册

EMCVxRail超融合平台-安装配置手册

EMCVxRail超融合平台-安装配置手册EMC VxRail超融合平台安装配置手册目录目录1.客户信息 (4)1.1.客户联系信息 (4)1.2.产品清单 (4)1.3.售后支持 (4)2.地址与用户名规划 (5)2.1.IP地址信息 (5)2.2.用户登录信息 (6)2.3.DNS配置 (6)3.VxRail设备安装 (7)3.1.VxRail初始化准备 (7)3.1.1.环境准备 (7)3.1.2.网络连接 (7)3.1.3.启动VxRail (7)3.2.VxRail初始化安装 (8)3.2.1.初始化配置 (8)3.2.2.登录VxRail Manager (15)3.2.3.登录VCenter (18)4.VxRail管理 (19)4.1.设备开机 (19)4.2.设备关机 (19)1.客户信息1.1.客户联系信息1.2.产品清单1.3.售后支持设备在使用中有任何问题,请联系EMC24小时支持热线:固话拨打:800-819-0009手机拨打:400-670-0009请提供故障设备的序列号,并记录case号码。

2.地址与用户名规划2.1.IP地址信息2.2.用户登录信息2.3.DNS配置请在DNS服务器上增加如下域名解析:3.VxRail设备安装3.1.VxRail初始化准备3.1.1.环境准备1.本次安装的为1台VXRAIL APPLIANCE 120,网卡为10GB SFP+网卡2.一台带有电口网卡的PC Server,用于初始化VxRail3.1.2.网络连接(本次环境为10GB SFP+网络)3.1.3.启动VxRail1.按指定顺序启动VxRail的每个Node,间隔至少30s以上顺序为:Node4→Node3→Node2→Node13.2.VxRail初始化安装3.2.1.初始化配置1.使用IE登录VxRail默认IP:https://192.168.10.200 ,并点击“开始”(笔记本应提前配置IP,例如192.168.10.201/24)2.使点击“接受”3.选择“分步”4.添写系统相关信息5.设置Hostname、网络、用户密码6.设置vMotion网络7.设置vSAN信息8.设置虚拟机网络9.设置Loginsight信息10.点击验证11.点击“构建VxRail”,进行VxRail初始化。

EMCVPLEX安装实施计划方案

EMCVPLEX安装实施计划方案

VPLEX-LOCAL 的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1) 1 个Engine2) 2 个Director,每个Engine 由两个Director 组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。

4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。

本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡, 共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局Note:SPS = Standby Power SupplyVPLEX-LOCAL 的级联端口连接Cluster 1(sama connections from each engine in clusterCluster 2^same connections from each engine in duster)int&ncluste r i 一 COM SAN —switch 1BinlorcluslorCOM SAN >switch 20 —VPLEX-LOCAL 拓 扑结构=1B2TC00 A2-FOOOB2-FC01A2-FO01int&rciuster ISL 1 inierciusierCOM SAN COM SAN switch 1A switch 2AB2 FC00 A2 FCOONOTE: ISLTisIntar-switcli linkB2-FOO1 A2-FC01IOM BO IOM 81IOM B2 / IOM B3一口口口 DO 口口口吕吕 。

EMC VPLEX-Hardware-Installation-Guide

EMC VPLEX-Hardware-Installation-Guide

IntroductionThis document describes the basic hardware setup tasks for a factory-racked EMC® VPLEX™ cluster at a customer site. Steps are included for both VS1 and VS2 VPLEX hardware.Prerequisites1.Verify that you have the following documents:•EMC Best Practices Guide for AC Power Connections in Two-PDP Bays - Power requirements, including redundant power feeds on separate circuits (included in Open First box)•EMC AC Power Configuration Worksheet - Power zone identification (included in Open First box)•EMC 40U-C Cabinet Unpacking and Setup Guide - Instructions to unpack and secure the hardware in the data center (attached to cabinet)2.Note the approximate time that you moved the equipment into the data center. The equipment requires the time shown in the following table before you apply power, to prevent condensation on VPLEX components.3.Confirm that the following customer-supplied cables are available:•Enough fiber-optic cables to make all necessary I/O connections, each cable with enough additional length to allow for component serviceability and a minimum two-inch bend radius •Ethernet cable, to connect the VPLEX management server to the network •Two AC power cables from separate site power sources4.Review the following information, available on EMC Powerlink ®:•EMC VPLEX Site Preparation Guide , for electrical, mechanical, and cooling requirements •EMC Simple Support Matrix , for support information on VPLEX integration into the customer’s storage environment •Implementation and Planning Best Practices for EMC VPLEX Technical Notes •EMC VPLEX with GeoSynchrony (version) Configuration Worksheet - Download for use during VPLEX setupProcedure1.Remove the cable holder kit from the Open First box, and place it into the pouch on the inside of the cabinet’s rear door.2.VS1 hardware only:a.At the front of the cabinet, remove each engine’s bezel, and confirm that the components shown in the following figure are secure:b.At the rear of the cabinet, push in on each director and the I/O module (IOM) carrier. If a component is not fully seated, loosen the orange screws, push the component firmly in, and retighten the screws. Verify that each IOM’s latch button is in:3.VS2 hardware only :a.At the front of the cabinet, remove the 2U (3.5 inch) front panelapproximately nine inches below the VPLEX nameplate, to expose the laptop service tray. Then remove and discard the two Phillips screws (used only for shipping) that secure the tray to the NEMA rails, and snap the front panel back into place.b.Remove each engine’s front panel. Then check the latches on all power supplies, and directors, and confirm that the components are secure. When finished, replace the front panel(s).c.At the rear, check the latches on all modules, and confirm that the4.VS1 and VS2 - Pull gently on each SFP on the I/O modules and (if present) Fibre Channel switches, to confirm that the SFPs are secure.5.Verify each cable connection by pressing the cable connector into its port or receptacle. Check the AC power cable connections closely, and confirm that any wire cable bales are positioned as shown in the following figure.13.Verify the LED status on each SPS:NOTE: The On-Battery LED stays on while the SPS units fully charge (which could be a few minutes or a few hours).From transit/storage environment Time required To nominal computer room environment Above 75o F (24o C) 4 hours 68o F to 72o F (20o C to 22o C)68o F to 72o F (20o C to 22o C)None 40o F to 65o F (4o C to 18o C) 4 hours Below 40o F (4o C)8 hours Damp/high humidity16 hoursAir conditioned, low humidity14.Connect customer-supplied fiber-optic cables from the front-end andback-end SANs to the appropriate VPLEX I/O ports. Do not touch the ends of any fiber-optic cable, to avoid damage or contamination.Use redundant physical Fibre Channel links to connect each host to theVPLEX directors, as well as each VPLEX director to the back-end storage. To prevent data unavailability, ensure that each host in a storage view has paths to at least two directors in a cluster, and that multipathing is configured to distribute the paths evenly between directors A and B in each engine:15.Route the cables to the sides of the cabinet as shown in the followingfigure, to prevent blocking components. Maintain a minimum radius oftwo inches for any bend in a Fibre Channel cable. (In a VS2 cabinet, route the cables along the cable management trays.)Route the cables up or down the sides of the cabinet through the plastic cable holders, and out the top or bottom of the cabinet.16.Connect the management server to the customer IP network:17.VPLEX Metro™ or VPLEX Geo™ only - Connect the intercluster cables asshown in the figure that applies to your WAN COM connection. Ensurethat each director has two independendent paths to each director in theother cluster. (The connections are the same for each engine in a cluster.)•VS1 directors with WAN connections over Fibre Channel:•VS1 directors with WAN connections over IP:•VS2 directors with WAN connections over Fibre Channel:•VS2 directors with WAN connections over IP:Next steps1.Download and install the VPLEX Procedure Generator from Powerlink toaccess additional service, maintenance, and troubleshooting information.2.Work with the customer to complete the EMC VPLEX with GeoSynchrony(version) Configuration Worksheet, and give it to the customer.3.Follow the procedures in the EMC VPLEX with GeoSynchrony (version)Configuration Guide to configure the cluster for operation in the customerenvironment.Copyright © 2011 EMC Corporation. All rights reserved.Published June 2011EMC believes the information in this publication is accurate as of its publication date. However, the information issubject to change without notice.THE INFORMATION IN THIS PUBLICATION IS PROVIDED “AS IS.” EMC CORPORATION MAKES NOREPRESENTATIONS OR WARRANTIES OF ANY KIND WITH RESPECT TO THE INFORMATION IN THISPUBLICATION, AND SPECIFICALLY DISCLAIMS IMPLIED WARRANTIES OF MERCHANTABILITY ORFITNESS FOR A PARTICULAR PURPOSE.Use, copying, and distribution of any EMC software described in this publication require an applicable softwarelicense.For the most up-to-date regulatory document for your product line, go to the Technical Documentation andAdvisories section on EMC Powerlink.For the most up-to-date listing of EMC product names, see EMC Corporation Trademarks on .All other trademarks used herein are the property of their respective owners.P/N 300-012-308 Rev A01。

VTM系统生产存储vplex实施方案

VTM系统生产存储vplex实施方案

VTM生产系统存储更换实施方案目录实施过程概述本次实施为泰安银行VTM系统原有数据迁移至EMCVPLEX平台,实现在EMCVPLEX平台的数据双活。

项目涉及的设备有原有存储IBMV7000、EMCVPLEX 和IBMF96。

目的是为了数据实现存储IBMV7000与EMCVNX5600存储双活。

1VTM系统设备接入生产环境1.1VTM系统连接示意图1.2SAN交换机端口分配示意图1.3SAN交换机ZONE配置1.3.1通讯要求VTMDF2_S2_P0Sw2:12Vplexvplex-E1DA-FE1 Sw2:52vplex-E1DB-FE1 Sw2:53 vplex-E2DA-FE1 Sw2:54 vplex-E2DB-FE1 Sw2:55VTMv7000V7000_A_1SW1:0Vplexvplex-E1DA-FE0 Sw1:48 VTMv7000存储连接vplex 后端vplex-E1DB-FE0 Sw1:49 V7000_B_1SW2:4vplex-E2DA-FE0 Sw1:50vplex-E2DB-FE0 Sw1:51 V7000_A_3SW1:0Vplexvplex-E1DA-FE1 Sw1:48vplex-E1DB-FE1 Sw1:49 V7000_B_4 SW2:4vplex-E2DA-FE1 Sw1:50 vplex-E2DB-FE1 Sw1:511.3.2 Zone 配置交换机SW1上的ZONE 配置主机zone 名称主机端口 存储端口 VTMappyxv7000_vtmdbfs1_slot18口 0、4口 vtmdbfs1_slot1_vplex_fe 8口 52、53、54、55口VTMDByxv7000_vtmdbfs2_slot112口 0、4口 vtmdbfs2_slot1_vplex_fe 12口52、53、54、55口VTMv7000 V7000_A_1_VPLEX_BE 0、4口48、49、50、51口V7000_B_1_VPLEX_BE交换机SW2上的ZONE 配置主机zone 名称主机端口存储端口VTMapp yxv7000_vtmdbfs1_slot2 8口0、4口vtmdbfs1_slot2_vplex_fe 8口52、53、54、55口VTMDB yxv7000_vtmdbfs2_slot2 12口0、4口vtmdbfs2_slot2_vplex_fe 12口52、53、54、55口VTMv7000 V7000_A_3_VPLEX_BE0、4口48、49、50、51口V7000_B_3_VPLEX_BE2实施前的准备工作注:请联系相关业务管理人员完成下面的工作2.1通知受影响的各业务部门2.2数据备份注:请联系相关业务管理人员做好数据备份工作3查询主机相关信息3.1获取主机的HBA卡信息3.1.1VTMAPP主机信息FC名称WWN号位置描述备注vtmdbfs1_slot1 10:00:00:90:fa:bb:e4:b2 slot1vtmdbfs1_slot2 10:00:00:90:fa:bd:a1:c8 slot23.1.2VTMDB主机上的HBA卡信息FC名称WWN号位置描述备注vtmdbfs2_slot1 10:00:00:90:fa:bd:a1:ca slot1vtmdbfs2_slot2 10:00:00:90:fa:bc:b5:2a slot23.2获取主机VG信息3.2.1VTMAPP(152)主机VG信息VTMAPP主机上所有VGvg_fssize=200Gasm-disk2dg_datasize=2.0Gasm-disk0dg_ocrsize=120Gasm-disk1dg_orasize=200Gasm-disk4dg_backup--没有在oracle中使用size=2.5Tfssize=200Gasm-disk3dg_index3.2.2VTMDB(153)主机上的VG信息VTMDB主机上所有VGvg_fssize=200Gasm-disk2dg_datasize=2.0Gasm-disk0dg_ocrsize=120Gasm-disk1dg_orasize=200Gasm-disk4dg_backup--没有在oracle中使用size=2.5Tfssize=200Gasm-disk3dg_index3.3获取主机的PV信息3.3.1VTMAPP(152)主机上所有的PV信息Pv-name Pv_大小PVUUID Vg_name/dev/dm-8 2.5TB 2Cerob-o20h-cXTN-K86T-aR23-jTzh-CpxxsXvg_fs3.3.2VTMAPP(152)主机上所有的LV信息3.3.3VTMDB(153)主机上的所有PV信息3.3.4VTMDB(153)主机上所有的LV信息4EMC存储分配LUN4.1EMC存储划分LUN4.2V7000存储主机映射排序4.2.1EMCVPLEX添加主机1、在v7000上注册VPLEX的后端端口。

VTM系统生产存储vplex实施方案

VTM系统生产存储vplex实施方案

VTM生产系统存储更换实行方案目录实行过程概述............................................................................................... 错误!未定义书签。

1VTM系统设备接入生产环境............................................................................. 错误!未定义书签。

1.1VTM系统连接示意图........................................................................... 错误!未定义书签。

1.2SAN互换机端口分派示意图................................................................ 错误!未定义书签。

1.3SAN互换机ZONE配置......................................................................... 错误!未定义书签。

通讯规定......................................................................................... 错误!未定义书签。

Zone配置 ....................................................................................... 错误!未定义书签。

2实行前旳准备工作....................................................................................... 错误!未定义书签。

EMC vplex Isilon DD存储备份双活系统实施方案

EMC vplex Isilon DD存储备份双活系统实施方案

2016年3月目录1.项目实施内容 (5)1.1存储系统架构示意图 (6)1.3本项目设备硬件配置 (6)2.存储系统实施基础配置 (7)2.1双活数据中心存储实现模式 (7)2.2光纤通道交换机端口连接表 (8)2.3VPLEX端口作用描述 (9)2.4VPLEX端口的使用 (9)2.5存储设备线路连接描述 (9)2.6存储设备端口命名规则 (10)3.SAN存储规划 (10)3.1存储设备连接线缆数量及种类 (10)3.2存储设备IP地址配置 (11)3.3VPLEX的端口连接配置 (11)4.VPLEX METRO实施步骤 (12)4.1VPLEX前期准备 (12)4.1.1 system volumes (12)4.2S WITCH ZONING (13)4.3B ACKEND STORAGE PROVISIONQ (13)4.4VPLEX INITIAL SETUP (13)4.4.1 Configip address and hostname of VPLEX (13)4.4.1.1 Connect to management server (13)4.4.1.2 entering the VPLEXCLI (14)4.4.1.3 set the management server ipaddress (14)4.4.1.4 change the hostname of VPLEX (14)4.4.1.5 check software version (14)4.4.2 use EZ-setup to initialize the VPLEX1 (15)4.4.2.1 Start EZ-setup (15)4.4.2.2 Configure the first cluster (15)4.4.2.3 Chose the local authentication (15)4.4.2.4 Configure event notification (15)4.4.2.5 Configure send system report to EMC (16)4.4.2.6 Configure performance statistics collector (16)4.4.2.7 Generate the certificate (16)4.4.2.8 Backend storage discovery (17)4.4.2.9 create meta-data volume (17)4.4.2.10 verify if meta-data volume is successfully created (18)4.4.2.11 create meta-data volume backups (18)4.4.2.12 enable FE port (18)4.4.3 use EZ-setup to initialize the VPLEX2 (18)4.4.3.1 Connect to VPLEX2 (18)4.4.3.2 Sychronize the time on the clusters (18)4.4.3.3 Start EZ-setup on cluster2 (19)4.4.3.4 Configure the Meta-data volume and backup of VPLEX2 (19)4.4.3.5 Complete configuration of cluster1 (19)4.4.3.6 Complete configuration of cluster2 (19)4.4.4 Join the clusters (19)4.4.5 Create logging volumes (20)4.5C HECK THE CLUSTER HEALTH (21)4.6VPLEX BACKEND STORAGE CONNECTIVITY VERIFY (21)4.7C LAIM THE DA TA VOLUME (21)5.ISILON的实施步骤 (23)5.1集群初始化 (23)5.2节点加入 (37)5.3系统健康检查 (38)5.4O NE FS升级 (38)5.5安装补丁包 (38)5.6系统微码升级 (38)5.7硬盘微码升级 (38)5.8管理界面登录 (39)5.9保护级别设置 (39)5.10网络设置 (40)5.10.1 内网设置 (41)5.10.2 外网设置 (41)5.11目录认证服务 (41)5.12SMB共享规划 (41)5.13NFS共享规划 (43)6DATADOMAIN配置步骤 (45)6.1D A TA D OMAIN配置之前实施内容 (45)6.2D A TA D OMAIN VTL配置 (46)7存储设备的使用示范 (55)7.1操作流程 (55)7.2操作示例 (56)7.2.1 光纤交换机操作部分 (56)7.2.2 EMC VNX7600操作部分 (59)7.2.3 VPLEX 操作部分 (62)1.项目实施内容XX公司双活数据中心灾备项目采用EMC VPLEX METRO解决方案,实现院区主机房和灾备机房容灾。

EMC_VPlex存储双活建设方案详细

EMC_VPlex存储双活建设方案详细
安信电脑系统(中国)有限公司
2012年11月
一、
目前XXX市社保已经在使用EMC的存储系统VNX5100,为了进一步保障社保应用的高可用性,提高生产的安全级别,XXX市社保计划对目前的存储系统进行虚拟化整合,并搭建双活存储系统,保证关键业务所使用的存储系统即使有一台存储系统出现故障,也不会出现业务停顿,达到更高的生产安全保障。
VNX 7500还支持LUN的条带化或级联式扩展,以将数据分散到更多的磁盘上;
C.中心机房-存储虚拟化:以EMC VPlex Local作为存储虚拟化;应用系统只需要访问虚拟化存储,而不需要直接管理后端的具体的存储系统;通过存储虚拟化,可以达到两台存储之间双活,可以支持异构的存储系统,对数据进行跨存储的本地及远程保护,统一管理接口和访问接口;
当应用系统读数据时,VPlex采用了AccessAnywhere技术,应用系统只需要就近访问最近的一台存储系统即可,可以大大节省两个数据中心之间的网络传输带宽;
当存储系统故障时,VPlex采用的Active-Active技术,结合服务器的集群文件系统(Cluster File System ),可以保证应用实时切换到容灾中心,而不需要人工操作,保证了业务系统的高可用性,大大缩减了故障切换时间。
当VPlex系统自身出现故障时,由于在Vplex中的设置,VPlex不会修改存储系统LUN的配置信息,即,用户可以将存储系统A或B的LUN直接挂到应用系统,保证应用系统的继续运行,不会产生数据丢失。
2.
VPlex在提供虚拟化的存储访问的同时,还可以方便地对存储容量进行扩展。当一台存储系统出现空间不足的情况时,可以通过VPlex的虚拟卷,将多台存储系统的空间组成一个卷给应用使用。通过这种级联方式,应用系统直接访问VPlex的虚拟卷,而VPlex后端接入的存储系统只是作为VPlex虚拟卷的存储资源池使用,达到资源的更合理分配和优化。

EMCVPLEX安装实施实施方案

EMCVPLEX安装实施实施方案

EMCVPLEX安装实施实施方案————————————————————————————————作者:————————————————————————————————日期:VPLEX-LOCAL的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1)1个Engine2)2个Director,每个Engine由两个Director组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。

4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。

本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡,共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局VPLEX-LOCAL的级联端口连接VPLEX-LOCAL拓扑结构VPLEX-LOCAL 的FABRIC 拓扑图Fabric Switch Engine power supplyManagement serverFabric SwitchVNX VNXVPLEX Host HostVPLEX-LOCAL 后端存储系统的配置VMAX_3358Vplex Meta volume ( >= 78GB, using 144GB )Vplex Meta volume backup ( >=78GB, using 144GB )VPLEX logging volume ( >=10GB, using 72GB )Host data volumeVMAX_0251HOST_BAKHOST_PRD VPLEX_0550VPLEX_0549Host data volumeHost data volumeMETA VOLUME的配置请注意每台VNX必须使用两个RG,每个RG各提供两个80G LUN。

vplex实施方案

vplex实施方案

vplex实施方案Vplex实施方案Vplex是一种基于存储虚拟化技术的解决方案,可以帮助企业实现存储资源的灵活管理和高可用性。

在实施Vplex方案之前,我们需要对环境进行充分的评估和规划,以确保实施过程顺利、稳定。

本文将从Vplex实施的准备工作、实施步骤和注意事项等方面进行介绍。

首先,进行准备工作。

在实施Vplex方案之前,我们需要对现有的存储环境进行详细的调研和评估,包括存储设备的型号、性能、容量、连接方式等信息。

同时,还需要对存储网络、主机配置等进行全面的了解。

在评估的基础上,我们可以制定详细的实施方案,包括资源调配、网络连接、数据迁移等计划。

其次,进行实施步骤。

在实施Vplex方案的过程中,我们需要按照事先制定的计划,依次进行资源调配、网络连接、数据迁移等操作。

首先,我们需要对Vplex设备进行初始化和配置,确保其与现有存储环境兼容。

然后,进行存储资源的调配和网络连接,确保Vplex设备能够正常工作。

最后,进行数据迁移,将现有的存储数据迁移到Vplex设备上,确保数据的完整性和一致性。

在实施Vplex方案的过程中,还需要注意一些事项。

首先,要确保实施过程中的数据迁移和操作不会对业务造成影响,可以选择在业务低峰期进行。

其次,要对Vplex设备进行充分的测试,确保其性能和稳定性。

最后,还需要对实施过程进行详细的记录和总结,为后续的运维工作提供参考。

综上所述,Vplex实施方案是一个复杂的过程,需要充分的准备和规划。

只有在充分了解现有环境的基础上,制定详细的实施计划,并严格执行,才能确保Vplex方案的顺利实施和稳定运行。

希望本文的介绍能够对您有所帮助,谢谢阅读。

Vplex实施手册

Vplex实施手册

Vplex-Metro实施手册项目名称:标题文档版本号: 1.1 文档作者:生成日期:文档维护记录版本号维护日期作者/维护人描述1.01. 系统topo (6)2. 系统概述 (7)3. 系统配置前准备 (7)3.1. VNX 5700配置(代理商完成) (7)3.2. 光纤线部署 (7)3.3. 网线部署 (8)3.4. 在san switch上创建alias (8)4. vplex配置步骤 (10)4.1. 配置VPLEX的hostname和管理网口IP (10)4.1.1. 配置AVPLEX01的hostname和管理网口IP (10)4.1.2. 配置BVPLEX01的hostname和管理网口IP (10)4.2. Cluster1 EZ-SETUP (10)4.3. 分配AVNX570001磁盘给AVPLEX01 BE port (11)4.3.1. 创建AVNX570001到AVPLEX01 BE PORT的zoning (11)4.3.2. 在AVNX570001上注册AVPLEX01 (11)4.3.3. 在AVNX570001创建LUN (11)4.3.4. 在AVNX570001上创建storage group (12)4.4. 继续cluster1安装 (12)4.4.1. 继续EZ-SETUP (12)4.4.2. 配置meta-volume (12)4.4.3. 配置meta-volume backup (12)4.4.4. enable vplex FE port (12)4.5. Cluster2 和Cluster1时间同步 (12)4.6. Cluster2 EZ-SETUP (12)4.7. 分配BVNX570001磁盘给BVPLEX01 BE port (13)4.7.1. 创建BVNX570001到BVPLEX01 BE PORT的zoning (13)4.7.2. 在BVNX570001上注册BVPLEX01 (13)4.7.3. 在BVNX570001创建LUN (14)4.7.4. 在BVNX570001上创建storage group (14)4.8. 继续cluster2安装 (14)4.8.1. 继续EZ-SETUP (14)4.8.2. 配置meta-volume (14)4.8.3. 配置meta-volume backup (14)4.9. 在cluster1上完成系统配置 (15)4.10. 在cluster2上完成系统配置 (15)4.11. 配置WAN interface连接 (15)4.12. cluster2 join cluster (15)4.13. 配置cluster2 上的logging volume (15)4.14. 配置cluster1 上的logging volume (16)5. 升级vplex到最新版本 (16)5.1. 在cluster1上执行pre-check (16)5.2. 升级cluster1的management server (16)5.3. 在cluster2上执行pre-check (16)5.4. 升级cluster2的management server (16)5.5. 在cluster1上 (16)6. Vplex Witness部署 (17)6.1. 登陆到ESXi,通过OVA文件部署Witness的VM (17)6.2. Poweron Witness vm,登录到console进行配置 (17)6.3. 配置三路VPN (17)6.3.1. 配置cluster1 上配置三路VPN (17)6.3.2. 配置cluster2 上配置三路VPN (17)6.3.3. 在cluster1 上确认VPN状态 (17)6.3.4. 在cluster2 上确认VPN状态 (17)7. 创建virtual volume (17)7.1. Claim storage volume (17)7.1.1. Claim cluster1的storage volume (17)7.1.2. Claim cluster2的storage volume (18)7.2. 在cluster1上创建extent (18)7.3. 在cluster2上创建extent (21)7.4. 在cluster1上创建device (21)7.5. 在cluster2上创建device (25)7.6. 创建distributed devices (25)8. ESXi磁盘分配 (30)8.1. 安装powerpath/VE (30)8.1.1. 安装esxcli (30)8.1.2. 安装powerpath/VE (30)8.1.3. Reboot esxi 服务器 (30)8.1.4. 安装rtools (30)8.2. 创建ESXi到VPLEX FE PORT的zoning (31)8.2.1. 创建ESXi到同SAN switch相连的VPLEX的zoning (31)8.2.2. 创建ESXi到同SAN switch相连的VPLEX的zoning (32)8.3. 在BVPLEX01上注册ESXi initiator (33)8.4. 在AVPLEX01上注册ESXi initiator (34)8.5. 在BVPLEX01上创建storage view (35)8.6. 在ESXi上扫描磁盘 (38)8.7. 在ESXi上创建Datastore (40)9. 可用性测试 (40)9.1. 测试前准备 (40)9.2. 拔vplex前端口测试 (40)9.3. 拔vplex后端口测试 (41)9.4. 拔vplex wan 光纤测试 (41)9.5. 关闭后端存储测试 (41)9.6. 关闭一台vplex测试 (41)10. 系统当前配置 (41)10.1. 密码配置 (41)10.2. VNX5300配置信息 (42)10.2.1. AVNX570001配置信息 (42)10.2.2. BVNX570001配置信息 (42)10.3. VPLEX配置 (42)10.3.1. Cluster_1配置信息 (42)10.3.2. Cluster_2配置信息 (42)10.4. SAN switch配置 (43)10.4.1. Fabric1配置 (43)10.4.2. Fabric2配置 (43)1.系统topo2.系统概述本次xxx使用EMC Vplex Metro技术来实现存储系统的高可用访问,系统topo结构入第一节所示,两台VPLEX CLUSTER各自使用后端口链接一台VNX5300,其前端口供4台ESXi服务器交叉访问。

EMC_VPLEX容灾系统实施计划方案

EMC_VPLEX容灾系统实施计划方案

VPLEX容灾系统实施案2013年12月目录1.项目介绍51.1VPLEX架构图51.2本项目设备配置52.存储规划62.1规划目标62.2VPLEX端口的使用63.SAN网络规划73.1现有拓扑示意图83.2VPLEX实施拓扑示意图83.3设备IP规划93.4Z ONE规划94.VPLEX WITNESS实施规划115.版本控制135.1ODM版本的要求135.2P OWER HA版本的要求135.3P OWERPATH版本的要求146.与数据迁移相关的VPLEX配置146.1应用系统数据迁移式论述146.1.1主机层面的迁移146.1.2存储层面的迁移146.2应用系统数据迁移实施步骤简述156.2.1主机层面在线数据迁移式实施步骤简述156.2.2VPLEX层面的离线数据转移式实施步骤简述166.2.3应用系统从VPLEX-Metro回退到DS4800存储系统实施步骤简述177.VPLEX METRO实施步骤177.1VPLEX前期准备177.1.1system volumes (17)7.1.2meta data volumes (18)7.1.3logging volumes (18)7.2S WITCH ZONING (19)7.3B ACKEND STORAGE PROVISIONQ (19)7.4VPLEX INITIAL SETUP (20)7.4.1Config ip address and hostname of VPLEX (20)7.4.1.1Connect to management server (20)7.4.1.2entering the VPLEXCLI (20)7.4.1.3set the management server ip address (20)7.4.1.4change the hostname of VPLEX (20)7.4.1.5check software version (21)7.4.2use EZ-setup to initialize the VPLEX1 (21)7.4.2.1Start EZ-setup (21)7.4.2.2Configure the first cluster (21)7.4.2.3Chose the local authentication (21)7.4.2.4Configure event notification (22)7.4.2.5Configure send system report to EMC (22)7.4.2.6Configure performance statistics collector (22)7.4.2.7Generate the certificate (22)7.4.2.8Backend storage discovery (23)7.4.2.9create meta-data volume (24)7.4.2.10verify if meta-data volume is successfully created (24)7.4.2.11create meta-data volume backups (24)7.4.2.12enable FE port (24)7.4.3use EZ-setup to initialize the VPLEX2 (24)7.4.3.1Connect to VPLEX2 (24)7.4.3.2Sychronize the time on the clusters (25)7.4.3.3Start EZ-setup on cluster2 (25)7.4.3.4Configure the Meta-data volume and backup of VPLEX2 (25)7.4.3.5Complete configuration of cluster1 (25)7.4.3.6Complete configuration of cluster2 (25)7.4.4Join the clusters (25)7.4.5Create logging volumes (26)7.5C HECK THE CLUSTER HEALTH (27)7.6VPLEX BACKEND STORAGE CONNECTIVITY VERIFY (27)7.7C LAIM THE DATA VOLUME (27)8.设备的使用298.1V PLEX的使用299.系统测试309.1V PLEX高可用测试309.2数据库高可用测试311.项目介绍XXX灾备项目采用EMC VPLEX METRO解决案,实现院区主机房和灾备机房容灾,结合实际情况本项目规划如下。

EMC 存储虚拟化VPlex解决方案-revised

EMC 存储虚拟化VPlex解决方案-revised

EMC 存储虚拟化VPlex解决方案-revisedEMC 存储虚拟化VPlex解决方案前言信息是金融行业的命脉, 近十年来信息存储基础设施的建设在金融业取得长足的进步。

从内置存储转向外置RAID存储,从多台服务器共享一台外置RAID阵列,再到更多台服务器通过SAN共享更大型存储服务器。

存储服务器容量不断扩大的同时,其功能也不断增强,从提供硬件级RAID保护到独立于服务器的跨磁盘阵列的数据镜像,存储服务器逐渐从服务器外设的角色脱离出来,成为单独的“存储层”,为数据中心的服务器提供统一的数据存储,保护和共享服务。

随着金融业的不断发展,对IT系统尤其是存储系统的要求越来越高,鉴于金融业由于信息的重要性,监管部门要求各金融机构建议多中心来预防单一数据中心操作性风险。

多数据中心建设方案可以预防单数据中心的风险,但面对多数据中心建设的巨额投资,如何同时利用多数据中心就成为IT决策者的首要问题。

同时利用多数据中心就必需实现生产数据跨中心的传输和共享,总所周知,服务器性能的瓶颈主要在IO部分,数据在不同中心之间的传输和共享会造成IO延时,进而影响数据中心的总体性能。

同时,各家厂商不断推出新技术,新产品,容量不断扩展,性能不断提高,功能越来越丰富,但由于不同存储厂商的技术实现不尽相同,用户需要采用不同的管理界面来使用不同厂商的存储资源。

这样,也给金融业用户带来不小的问题,首先是无法采用统一的界面来让服务器使用不同厂商的存储服务器,数据在不同厂商存储服务器之间的迁移也会造成业务中断。

作为信息存储行业的领先公司,EMC公司针对金融业客户异构存储统一管理和跨数据中心信息传输和共享的迫切需求,推出存储VPlex解决方案,很好的解决了这些问题。

本文随后将介绍VPlex产品及其主要应用场景,供金融行业信息存储管理人士参考。

一VPlex产品及功能概述EMC存储虚拟化VPlex解决方案用于在金融行业数据中心内、跨数据中心和在数据中心之间进行信息虚拟化、访问、共享和迁移。

emcvplex安装实施方案(20200515182405)

emcvplex安装实施方案(20200515182405)

VPLEX_GATEWAY eth3
【 VPLEXCLI_CLUSTER_】1 # ll /management-server/ports/eth3
8. 运行 exit 命令,退出 VPLEX_01到 Manager Server ,检查公用管理网络的连通性
【 VPLEXCLI_CLUSTER_】1 # exit
【 MS_CLUSTER_】1 # cat /etc/HOSTNAME
6. 运行 vplexcli 命令登陆到 VPLEX_01,用户名为 service ,密码为 Mi@Dim7T
【 MS_CLUSTER_】1 # vplexcli
7. 配置 Manager Server 的管理公用 IP 地址
【 VPLEXCLI_CLUSTER_】1 # management-server set-ip -i VPLEX_01_IP:VPLEX_NETMASK-g
【 MS_CLUSTER_】1 # ping VPLEX_GATEWAY
9. 配置 NTP时钟服务器,同步时间
【 MS_CLUSTER_】1 # vi /etc/
; 设置外部 server 为 NTP_IP
【 MS_CLUSTER_】1 # sudo /etc/ntp restart 【 MS_CLUSTER_】1 # date 10. 运行 exit 命令,退出 VPLEX_01的 Manager Server 【 MS_CLUSTER_】1 # exit
VPLEX-LOCAL 的 硬 件 配 置 信 息
此次安装的 VPLEX-Local 有单台台 VPLEX组成, VPLEX的硬件配置如下: 1) 1 个 Engine 2) 2 个 Director ,每个 Engine 由两个 Director 组成 3) 8 个 8Gb 前端 FC端口,每个 Director 包含一块前端 FC卡,共 4 个 8Gb 的前端 FC端口,

推荐-vPlex实施方案 精品

推荐-vPlex实施方案 精品

VPLEX LOCAL实施方案20XX-12-07目录1项目背景随着业务不断扩大,信息系统显得更加重要。

目前有TRIBON系统、文件服务器、SQL server数据库等应用系统。

操作系统均为windowns20XX。

通过两台光线交换机与CX500、VNX5300连接。

CX500存储原来的老数据,现应用系统数据已经全部迁移到VNX5300。

本项目中EMC提供存储虚拟化VPLEX LOCAL,通过在现有的SAN环境加入VPLEX 设备,来实现对VNX5300的统一管理,以便将来扩展存储,进一步实现存储间的数据迁移、存储间的Mirror。

VNX5300DS200B VPLEXVPLEX LOCAL2 现有环境2.1 目前拓扑结构CX500VNX53002.2 设备信息经过前期信息调研,设备信息统计如下:2.2.1主机信息2.2.2SAN 交换机2.2.3存储系统3VPLEX LOCAL方案设计3.1 总体规划本项目VPLEX配置为两个引擎,硬件版本VS2,软件版本5.01。

最终实现用户原有存储VNX5300被VPLEX统一管理,但需要保证用户可以安全退回无VPLEX架构。

所以在创建device时需要采用1:1方式,以便用户可以安全回退到主机与存储通过交换机的直连架构,保证数据完整可用。

3.2 环境准备及要求3.2.1VPLEX物理要求✓准备两路220-240V、32A航空电源插头供VPLEX机柜使用✓光纤延时不得超过2ms✓准备一根网线用于VPLEX管理✓准备一个IP地址用于VPLEX管理✓准备8根光纤线用于VPLEX Engine1、Engine2前端口连接DS200B、DS300B交换机✓准备8根光纤线用于VPLEX Engine1、Engine2后端口连接DS200B、DS300B交换机3.2.2生产主机✓多路径管理软件为Powerpath5.0需要升级powerpath5.3或以上3.2.3存储设备✓准备一跟光纤跳线用于VNX5300到DS200B连接✓需要划分4*80GB Lun做为meta-volume✓需要划分1*10GB Lun做为logging-volume以备将来使用3.2.4SAN交换机✓两台SAN交换机分别需要为VPLEX预留6个端口,其中4个为后端口,2个前端口✓需要增加VPLEX后端口与存储的zone,均为WWN zone✓需要增加VPLEX前端口与主机的zone,均为WWN zone✓两台冗余交换机分别为200B(4GB)与300B(8GB),需要将300B交换机降至4GB3.3 VPLEX规划3.3.1IP规划3.3.2VPLEX端口规划3.4 生产主机在配置VPLEX时需要为生产主机申请停机时间,以便停止业务后通过VPLEX重新认盘3.5 SAN交换机3.5.1PORT规划3.5.2ZONE规划3.6 存储阵列3.6.1VNX5300 LUN规划4实施步骤实施前确保存储上所有数据均做全备份。

EMC Vplex双活数据解决方案

EMC Vplex双活数据解决方案

EMC Vplex双活数据解决方案一、方案目标本方案采用以EMC VPLEX技术为核心的双活虚拟化数据中心解决方案。

EMC VPLEX 产品能够打破数据中心间的物理壁垒,提供不同站点间对同一数据副本的共享、访问及在线移动的能力,结合VMware虚拟化技术及Cisco OTV网络扩展技术,能够实现业务及数据在站点间的透明在线移动,使用户能够在两个站点间动态平衡业务负载,最大限度利用资源,并提供接近于零RTO的高可用能力,是真正意义上的云计算基础架构。

二、方案架构EMC VPLEX双活虚拟数据中心解决方案的构成与功能如下图所示:1)基于EMC VPLEX Metro提供双活虚拟化数据中心解决方案核心功能:2)基于Cisco提供的OTV(Overlay Transport Virtualization)L2 网络延伸技术,从网络层面为虚机在线透明迁移提供条件,及最小化的RTO指标;3)基于VMware虚拟化技术、EMC VPLEX Metro、以及Cisco OTV技术三者的合力实现双活虚拟数据中心4)基于EMC Avamar为双活虚拟数据中心提供完善的数据备份保护5)基于EMC Ionix ITOI(IT Operations Intelligence)产品实现虚拟数据中心的全面集中监控管理三、方案功能3.1 EMC VPLEX方案功能EMC VPLEX 引入了一种新的体系结构,它吸收了 EMC 在 20 年设计、实施和完善企业级智能缓存和分布式数据保护解决方案的实践中取得的经验和教训。

以可扩展、高可用的处理器引擎为基础,EMC VPLEX 系列设计为可从小型配置无缝扩展到中型和大型配置。

VPLEX介于在服务器和异构存储之间,使用独特的群集体系结构,该体系结构允许多个数据中心的服务器具有对共享块存储设备的读/写访问权限。

新体系结构的独特特征包括:- 横向扩展群集硬件,允许您从小配置开始并以可预知的服务级别逐步扩展- 高级数据缓存,它利用大规模 SDRAM 缓存提高性能并减少 I/O 延迟和阵列争用- 分布式缓存吻合性,可跨整个群集自动执行 I/O 的共享、平衡和故障切换- 一个统一视图显示跨 VPLEX 群集的一个或多个 LUN(这些群集可以是在同一数据中心内相距几英尺,也可以是跨同步距离),从而实现新的高可用性和工作负载移置模式。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

VPLEX-Local的硬件配置信息此次安装的VPLEX-Local有单台台VPLEX组成,VPLEX的硬件配置如下:1)1个Engine2)2个Director,每个Engine由两个Director组成3)8个8Gb前端FC端口,每个Director包含一块前端FC卡,共4个8Gb的前端FC端口,由于交换机端口限制,本次使用4个前端FC端口(每个Directo上两个)。

4)8个8Gb后端FC端口,每个Director包含一块后端FC卡,共4个8Gb的后端FC端口。

本次使用4个前端FC端口(每个Directo上两个)5)4个可用的8Gb的VPLEX-Local级联FC端口,每个Director包含一块VPLEX-Local级联FC卡,共4个8Gb的级联FC端口,但是只有两个可用VPLEX-LOCAL的硬件介绍单台VPLEX的硬件布局VPLEX的ENGINE的硬件布局VPLEX-LOCAL拓扑结构VPLEX-LOCAL的FABRIC拓扑图Fabric Switch Engine power supplyManagement serverFabric SwitchVNX VNXVPLEX Host HostVPLEX-LOCAL 后端存储系统的配置META VOLUME 的配置请注意每台VNX 必须使用两个RG ,每个RG 各提供两个80G LUN 。

Mirror 和backup 的meta volume LUN 需分开RG 存放。

不推荐mirror 和 backup 放在同一个RG 里。

LOGGING VOLUME的配置安装配置流程VPLEX-LOCAL安装配置详细步骤在VPLEX-Local的安装配置过程中,有些命令在Manager Server上运行,有些命令在VPLEX 上运行,以下标志代表命令的运行场所:【MS_CLUSTER_1】: VPLEX_01的Manager Server的shell环境下运行【VPLEXCLI_CLUSTER_1】: VPLEX_01的VPlex的CLI环境下运行,在Manager Server的shell 环境下,运行“vplexcli”命令进入该环境【MS_CLUSTER_2】: VPLEX_02的Manager Server的shell环境下运行【VPLEXCLI_CLUSTER_2】: VPLEX_02的VPlex的CLI环境下运行,在Manager Server的shell 环境下,运行“vplexcli”命令进入该环境CLUSTER_1的安装配置CLUSTER_1的初始化配置1.将配置用的笔记本电脑的网卡设置为通过DHCP获取IP2.配置用的笔记本电脑通过网线连接到VPLEX_01的Manager Server的eth1网口3.通过putty.exe或SecureCRT软件登陆到VPLEX_01的Manager Server上,Host IP:128.221.252.2,Connect type:SSH,用户名:service,密码:Mi@Dim7T4.设置Manager Server的主机名【MS_CLUSTER_1】# sudo /opt/emc/VPlex/tools/ipconfig/changehostname.py -n VPLEX-01 5.重新登陆Manager Server,查看提示符或/etc/HOSTNAME文件内容,确认主机名更改成功【MS_CLUSTER_1】# cat /etc/HOSTNAME6.运行vplexcli命令登陆到VPLEX_01,用户名为service,密码为Mi@Dim7T【MS_CLUSTER_1】# vplexcli7.配置Manager Server的管理公用IP地址【VPLEXCLI_CLUSTER_1】# management-server set-ip -iVPLEX_01_IP:VPLEX_NETMASK -g VPLEX_GATEWAY eth3【VPLEXCLI_CLUSTER_1】# ll /management-server/ports/eth38.运行exit命令,退出VPLEX_01到Manager Server,检查公用管理网络的连通性【VPLEXCLI_CLUSTER_1】# exit【MS_CLUSTER_1】# ping VPLEX_GATEWAY9.配置NTP时钟服务器,同步时间【MS_CLUSTER_1】# vi /etc/ntp.conf ; 设置外部server为NTP_IP【MS_CLUSTER_1】# sudo /etc/init.d/ntp restart【MS_CLUSTER_1】# date10.运行exit命令,退出VPLEX_01的Manager Server【MS_CLUSTER_1】# exit启动CLUSTER_1的DIRECTOR,检查和确认版本信息11.通过putty.exe或SecureCRT软件登陆到VPLEX_01的Manager Server上,用户名为service,密码为Mi@Dim7T12.运行vplexcli命令登陆到VPLEX_01,用户名为service,密码为Mi@Dim7T【MS_CLUSTER_1】# vplexcli13.启动VPLEX的Director,确认显示的director数量正确(2个director)【VPLEXCLI_CLUSTER_1】# configuration connect-local-directors【VPLEXCLI_CLUSTER_1】# ll /engines/**/directors14.检查VPLEX及每个Director的版本,确认符合版本控制要求【VPLEXCLI_CLUSTER_1】# version【VPLEXCLI_CLUSTER_1】# exit检查硬件运行状态15.检查VPLEX及每个Director的版本,确认符合版本控制要求【MS_CLUSTER_1】VPlexPlatformHealthCheck确认检查结果符合下表:运行EZ-SETUP配置向导16.运行EZ-Setup配置向导,完成以下方面的配置:【MS_CLUSTER_1】# vplexcli【VPLEXCLI_CLUSTER_1】# configuration system-setup提示选择What would you like to configure?21. Configure a VPLEX Local (single cluster).【VPLEXCLI_CLUSTER_1】# ll /engines/**/ports18.登陆到SAN Switch,运行“switchshow”命令,检查VPLEX_01后端端口在SAN Switch上的连接是否符合规划,否则根据规划进行调整19.登陆到SAN Switch,创建与Metadata Volume和Logging Volume相关的VPLEX_01后端端口与后端存储系统前端端口之间的zoneVPLEX_01的后端端口注册到VNXVPLEX_01的后端端口在VNX上的注册配置建议如下:✓Host name: VPLEX_01✓Host IP: VPLEX_01_IP✓Initiator type: CLARiiON Open✓Failover Mode: 4VNX上创建STORAGE GROUP✓Storage Group: SG_ VPLEX_01✓Host: VPLEX_01_1✓LUN: 2个78GB的Metadata Volume(800、801)和一个10GB的Logging Volume(802),以及其他数据LUN【VPLEXCLI_CLUSTER_1】# configuration continue-system-setup名字,确认VNX5400的LUN 800的VPD名字和VNX5400的LUN 800的VPD名字【VPLEXCLI_CLUSTER_1】# configuration show-meta-volume-candidates22.创建Metadata Volume【VPLEXCLI_CLUSTER_1】# meta-volume create -n VPLEX_01_META -d < VXN5700的LUN 800的VPD名字>,< VNX5400的LUN 800的VPD名字>23.查看Metadata Volume的状态,确认active属性列显示为true【VPLEXCLI_CLUSTER_1】# ll /clusters/cluster-1/system-volumes/ VPLEX_01_META 24.查看cluster的状态,确认cluster status和operational-status显示为ok【VPLEXCLI_CLUSTER_1】# cluster status的VPD名字,确认VNX5400的LUN 801的VPD名字和VNX5400的LUN 801的VPD名字【VPLEXCLI_CLUSTER_1】# ll /clusters/cluster-1/storage-elements/storage-volumes26.选择Metadata Volume的备份设备为:VNX5400的LUN 801的VPD名字>,< VNX5400的LUN 801的VPD名字>。

设置Metadata Volume的备份时间(本地时间23:40,UTC时间应该是15:40),启动初始化备份,Metadata Volume的备份时间大约为10分钟。

【VPLEXCLI_CLUSTER_1】# configuration metadata-backup【VPLEXCLI_CLUSTER_1】# ll /clusters/cluster-1/storage-elements/storage-volumes【VPLEXCLI_CLUSTER_1】# configuration register-product完成CLUSTER_1的EZ-SETUP安装配置28.通过putty.exe或SecureCRT软件登陆到VPLEX_01的Manager Server上,用户名为service,密码为Mi@Dim7T29.运行vplexcli命令登陆到VPLEX_01,用户名为service,密码为Mi@Dim7T【MS_CLUSTER_1】# vplexcli【VPLEXCLI_CLUSTER_1】# configuration complete-system-setup。

相关文档
最新文档