联想VPLEX双活数据中心解决方案

合集下载

双活数据中心体系架构

双活数据中心体系架构

Traffic Group-1 缺省设备
RW
数据中心A
Storage network 扩展的存储网络
Traffic Group-2 缺省设备
RW
数据中心B 22
基于IP发布业务的业务切换-LTM 故障
10.153.20.98/32 10.153.20.99/32
发布主机路由
RHI
VIP-A VIP-B
查询该函数 返回值
输入已知判断条件7, 若不匹配,则业务异常
业 务 级 的 健 康 探 测
12
二层网络层
数据中心1
MPLS网络 VPLS
IP网络 EVI
光纤直接
数据中心2
基于MPLS网络 配置复杂
传输链路无关 配置管理简单 站点完全独立 不影响现有网络
链接简单、效率高 简单互联,故障不隔离 真实部署注意细节多
VIP-A
VIP-A VIP-B
Server VLAN
信息同步 Production VLAN
Heartbeat HA VLAN
Sync-Failover Device Group
Traffic Group-1 缺省设备
RW
数据中心A
Storage network 扩展的存储网络
缺省设

RW
数据中心A
Production VLAN
13
二层扩展的问题
ARP广播泛滥
ARP广播报文会扩散到整 个二层网络中,占用网络 资源浪费网络带宽
未知单播和未知组播泛滥
STP域扩大
未知单播和组播报文会扩散到整个二层网 STP域扩展到整个二层网络
络中,占用网络资源,浪费网络带宽
中,使管理复杂,收敛速

EMCVPLEX数据中心虚拟化方案

EMCVPLEX数据中心虚拟化方案

02
方案设计
根据需求分析结果,设计符合客户需 求的虚拟化方案,包括资源分配、网 络设计、安全策略等。
01
03
安装部署
根据设计方案进行虚拟化软件的安装 和硬件资源的配置。
上线运行
将虚拟化系统正式投入使用,并进行 长期的监控和维护。
05
04
系统调试
对安装好的虚拟化系统进行调试,确 保系统的稳定性和性能。
实施效果
通过虚拟化方案的实施,该企业的数据中心性能得到了显著提升,同时降低了运营成本, 提高了服务质量和可靠性。容灾备份方案的实施也确保了数据的安全性和业务的连续性。
06
EMC Vplex未来展望与 总结
Vplex未来发展趋势
扩展性
Vplex继续提供更高的可扩展性,以满足不 断增长的数据需求。
安全
04
EMC Vplex解决方案详 解
Vplex数据中心架构
架构概述:Vplex数据中心架构是一种高 度可扩展的虚拟化平台,旨在提高数据 中心的效率、灵活性和可用性。
多租户支持:Vplex支持多租户隔离,为 不同业务部门提供独立的资源池。
分布式架构:Vplex采用分布式架构,可 扩展至数千个节点,满足大型企业的需 求。
02
数据中心虚拟化概述
什么是数据中心虚拟化?
数据中心虚拟化是一种将物理服务器和基础设施资源抽象成逻辑资源的技术,它 允许在一个物理服务器上运行多个虚拟机,每个虚拟机都有自己的操作系统和应 用程序。
数据中心虚拟化通过软件定义的网络和存储技术,将网络和存储资源划分为可动 态分配的虚拟机,从而提高了服务器的利用率,简化了管理流程,并降低了运营 成本。
纵向扩展:Vplex支持 纵向扩展,通过升级硬 件设备提高单节点的性 能和容量。

双活数据中心与灾备解决方案

双活数据中心与灾备解决方案

二级应用
三级应用
数据可用性成本
系统可用性成本
一级应用
恢复业务所需时间
RTO
0
时间轴
成本轴
25
类别
关键应用,核心应用
二三级应用
非生产应用
解决方案
双活数据中心
虚拟机复制
灾备切换调度
虚拟机复制
数据保护
SLA
RPO=0
RTO<15分钟
RPO<15分钟
RTO<4小时
RPO<1小时
RTO<24小时
应用场景
BC,DA,DR
二三级应用
开发/测试
数据库
教学/科研
同城双活
异地灾备
两地三中心
数据中心迁移
异地灾备
15
需求条件通过二层或三层IP网络连接两个数据中心采用基于vSphere或阵列的复制技术vSphere内置复制功能免费,RPO=15分钟-24小时,文件级一致性,虚拟机级别颗粒度支持异构存储,vCenter直接管理阵列复制功能由合作伙伴提供,需额外购买支持同步或异步复制,应用级一致性,LUN级别颗粒度应用一致性:Oracle DataGuard, SQL Always On, Exchange DAGVMware相关产品与服务vSphere Ent+VSANvCenter Site Recovery Manager
vSphere
生产站点
服务器
阵列
复制
vSphere复制
vSphere
灾备站点
服务器
主备式切换
双活切换
双向切换
双活数据中心
Recovery
Recovery
Production

存储双活各大厂商实现解析

存储双活各大厂商实现解析
StorageB
SVC-ESC IO流
读IO,读本地站点A主机向站点ASVC发起读请求SVC读本地缓存,如中有刚返回主机,如无,读本地存储写IO主机向SVC写I/O请求,同站点的SVC节点将写I/O写入缓存,同时将写I/O同步至另一站点的SVC节点另一站点的SVC节点将写I/O写入缓存,并回复响应两个站点的SVC节点陆续将缓存写入各自站点的存储当中仲裁支持IP,磁盘模式,防止脑裂
I/O GROUP架构当一个IOGROUP故障,虚拟卷不能被 其它 IOGROUP自动接管一般采用温备方式手动替换nodeCache当一个node失效后,该IOG catche 失效,性能有所下降
SVC-ESC
Node1
Node2
Node3
Node4
Node5
Node6
Node7
Node8
StorageA
VPLEX构建双活数据中心
仲裁第三站点Witness 通过IP 方式进行仲裁,防止脑裂
多活架构多活架构多控制器可并发访问制定虚拟卷当一个控制器故障时,本地其它控制器接管
IO流本地读取,双向直写写IO到存储层cache,写完成
链路FC链路
分布式缓存一致性
基于目录的分布式缓存一致性可跨所有引擎高效维护缓存一致性
华为 HyperMetro写请求流程(FS)
IO流主机下发写请求到active租户的文件系统。文件系统将写请求下发到HyperMetro管理模块本端存储系统记录写请求的LOG信息。执行双写:双活管理模块同时将该写I/O写入本端Cache和远端Cache。两端Cache向双活管理模块返回写I/O结果。管理模块返回写请求结果到文件系统存储系统返回写结果给主机判断双写是否成功 1)都写成功:清楚log 2) 如果 有一端失败,log转成DCL,记录本地Lun和远端lun的数据差异

数据中心双活问题总结

数据中心双活问题总结

71
可以在现有vpn基础上,再嵌入otv? 如果现有基础配置不能改变的话
ip可达即可
72 OTV携带的MAC是扩展VLAN的主机MAC吗
MACinIP,L2經由IPOverlay透傳
73
同步复制和异步复制,指的是磁盘的对拷,还是 数据库的同步?
數據庫
如果两个城市之前能用OTV吗,是否需要电信有
74 相应的支持。您刚才答复只要IP可达就行了。 那 只需IP可达
会议主题:思科“双活”数据中心架构及方案
会议时间:2013年4月23日
序号 问题
回答
1 思科的这个双活的灾备中心在哪里实施了吗?
国内已有金融行业用户案例。
2
如果要实现cisco的双活中心,是不是要把所有的 路由器和交换机都更换了才行啊?
只需添加N7K作为数据中心互联,内部的网络可以沿用 现有的设备,逐步过渡。
这样的话,如何保证低延时
75 OTV有没有相应的加密技术保证数据传输安全?
OTV本身没有,需要专业设备,如果數據中心間以裸纖 連接,可以Nexus上MacSec加密
76 是否可以理解为双活应用在vpn建立基础之上?
应该说建立在lanextension的基础上,otv是实现lan延 伸的一个健壮的协议
19 能否結合UCS說一下案例
思科UCS通常是虚拟数据中心的核心计算单元,因此结 合OTV、LISP可以实现虚拟服务器在双活数据中心的灵
活调配,自动接管等
20
我们在做银行是灾备机房,涉及外联业务的双 活,所有外联业务都通过ASA nat转换,我如何在 灾备机房实现这些外联业务的双活
思科有一套完整的数据中心安全的解决方案,可以跨数 据中心实现cluster

某三级甲等医院数据中心双活建设方案

某三级甲等医院数据中心双活建设方案

04
还部署了具有重删压缩功能 的备份一体机,降低网络备 份流量,提升备份效率,并 满足电子病历应用水平分级 评价五级对容灾备份的要求 。
简化双活架构,降低采购和运维成本
简化组网和管理,减轻后台运维压力,两个数据中心 的全闪存储互为镜像,数据可以在两台存储之间实时 同步,并能在单台设备故障切换时实现业务无感知。
在电子病历时代,为满足个体 终生健康保障需求,支持大数 据时代的医学研究,医疗数据 的保存期限需要更久而且要保 证数据不能丢失。
容灾备份要求
《全国医院信息化建设标准与规范(试行)》规 定,三级甲等医院容灾备份应满足:关键业务信 息系统复原时间目标(RTO)≤15分钟,复原点 目标(RPO)≤10分钟。
应用效果
04
全闪存储加速,保证核心业务性能要求
原有存储设备IOPS仅有6.8 万,而华为OceanStor Dorado全闪存储(配置15 块3.84TB NVMe固态盘) 实测IOPS达到23万,系统响 应速度提升3倍以上。
医院电子病历系统迁移至新 双活架构后,系统响应速度 明显提升,就诊高峰期业务 从未出现卡顿情况,连调阅 数据量最大的应用也能在3 秒内完成。
每个数据中心的存储可同时提供 读写服务,实现无缝切换和业务 访问不中断。
为了提升存储空间利用率,启用 数据重删压缩功能,减少数据占 用的空间,提高每TB可用空间性 价比。
网络链路层面
在网络链路层面,医院前期 在基于VPLEX的双活数据中 心建设时已利用OSPF路由协
议实现负载均衡。
1
基于HSRP热备份路由协议 实现链路聚合,数据中心之 间已实现大二层打通,为业
THANKS.
因此,必须建立数据连续保护和容灾备 份方案来保障医疗数据的安全性。

企业双活数据中心规划

企业双活数据中心规划
定义
用户方案需求分析
5
在这种工作模式下,用户所有的业务系统在主数据中心中运行,而灾备数据中心为业务系统提供冷备或热备。当主数据中心的应用出现故障时,可以将单个应用或者数据中心整体切换到灾备数据中心。
主数据中心/灾备数据中心:
在这种工作模式下,用的一部分应用在第一个数据中心运行,另一部分应用在第二个数据中心运行,同时两个数据中心实现应用的互备,当某个应用出现故障时,由对应的备份数据中心应用接管服务。
App
App
App
App
DB
DB
同城双活中心
DB
App
App
App
App
App
App
App
App
数据复制
接入层
应用层
数据层
采用数据库双活技术(A-A或A-Q),同城双活中心的应用系统可以读取和更新数据
接入层负载均衡
存储层同城高可用或并行文件系统
应用层集群
双活部署模式分析
类别
序号
基本模式
RTO
RPO
机房基础设施
局域网
服务器资源
广域网
负载均衡
网络虚拟化
服务器虚拟化
网络二层互通
存储虚拟化
存储资源
数据复制及同步
数据库集群
中间件集群
应用集群
自动切换
自动供给
端到端监控
IT服务管理
端到端安全
客户端接入
公共服务
计划切换
计划回切
灾备切换
灾备回切
CDN
同城双活架构
生产中心
App
App
App
App
App
App
App

vplex 运维及异构存储双活使用实例技术手册

vplex 运维及异构存储双活使用实例技术手册

vplex 运维及异构存储双活使用
实例技术手册
Vplex 运维及异构存储双活使用实例技术手册是一份详细介绍 Vplex
集群组件、硬件架构、存储卷、双活技术和逻辑封装流程等内容的文档。

以下是该手册的核心内容:
1. Vplex 集群组件和硬件架构:Vplex 集群组件都会预安装在DellEMC 机架上,其硬件架构的高可用性体现在以下的方面:
引擎:每个引擎都包含两个独立的控制器。

I/O 模块:每个控制器安装了四个 FC I/O 模块,分为两个前
端模块(连接主机)和两个后端模块(连接存储);另外还有两个
I/O 扩展模块,用于控制器间的数据路径和通信。

备用电源:每个引擎由一个 SPS 提供后备电源,在电源故障时
允许进行写缓存,防止数据丢失。

SAN 交换机:配置了两个 SAN 交换机用于集群内部控制器之间
的连接。

UPS:配备了 UPS 以避免短暂断电带来的业务停顿风险。

2. 存储卷:Vplex 的存储卷是通过 claim 存储阵列中的 LUN 生成的。

每个存储卷都可以被映射到一个或多个虚拟卷,只有虚拟卷才可以被
给前端主机访问。

其中有一种 Distributed 的方式,它是由不同集群的 Device 组成的。

3. 双活技术:Vplex 双活技术可以实现在多个站点间同时读写数据,以提高系统的可用性和性能。

同时,它还可以实现容灾和恢复功能,确保数据的完整性和可靠性。

4. 逻辑封装流程:在 VPLEX 存储纳管之后,还需要按照特定的逻辑封装流程来完成。

其中包括创建 extent、创建 device 和创建virtual volume 等步骤。

双活数据中心及灾备解决方案技术部分

双活数据中心及灾备解决方案技术部分
requirements and their environment
NSX利用层叠网络实现双活数据中心
站点A
三层 网络
站点A 边界网关
上联网络A
VM1
VM 2
vCenter Server
分布式逻辑路由器
逻辑交换机A 172.16.10.0/24
VM
4
逻辑交换机B
172.16.20.0/24
数据存储1
which also aligns with vMotion using Enterprise Plus
• vMSC enables disaster avoidance and basic Disaster Recovery (without the orchestration or testing
• VMotion an数d S据to保ra护ge VMotion
• 高效的数据备份与恢复 • 可通过运行计划与脚本实现自动化操作
灾难恢复
• 基于虚拟化层的异步复制 • 基于硬件设备的同异步复制 • 自动化应用切换管理 • 城域集群
方案特点
• 与应用程序和操 作系统无关 • 与硬件设备无关 • 完善的保护 • 简单,经济
9
Fault Tolerance vs. High Availability
• Fault tolerance
– Ability to recover from component loss – Example: Hard drive failure
• High avail percentage in one year 99 99.9 99.99 99.999 “five nines”
Downtime in one year 3.65 days 8.76 hours 52 minutes 5 minutes

vplex双活数据中心解决方案

vplex双活数据中心解决方案
无间断业务运营
时间=金钱! 时间=生命!
越来越多的企业需要更可靠的应用连续性
应用的连续可用性提高数据中心的效率提高现有IT资源的效率云计算概念,随时随地访问
来自终端用户的需求促使观念的改变
IT领域对数据可靠性和连续用性要求越来越高
Recovery Point ObjectiveRecovery Time Objective
Continuous Availability, Next Generation DR, Load Balancing
VMware with VPLEX
vMotion across datacenters for non-disruptive load balancing, maintenance, and workload re-locationAutomatic failover and restart between the sites using VMware HA - no manual intervention neededThe loss of a storage array or requirement for planned downtime does not result in ANY application interruptionVMware DRS for full utilization of compute and storage resources across domains
Passive Failure Domain
Vast majority of Oracle deployments employ this protection methodologyStandby infrastructure available if primary instance failsRe-start at second instance = application outageLow infrastructure utilization because equipment at secondary instance is not actively usedPerformance limited to infrastructure at active site

vplex双活技术原理

vplex双活技术原理

vplex双活技术原理
VPLEX双活技术主要依赖于其分布式缓存一致性和缓存透写模式。

通过这两种技术,VPLEX能够将所有引擎视为一个统一的引擎来对外服务,并整合所有引擎的缓存为一个统一的内存。

这种设计使得在单一控制器或引擎出现故障时,其负载可以转移到其他引擎和控制器中,从而保证了数据的高可用性和可靠性。

VPLEX双活技术还采用了写透(write-through)的缓存模式。

这意味着VPLEX并没有实际意义上的写缓存,数据写入操作会直接写入后端存储。

只有当后端存储返回写确认后,主机端的写操作才算完成。

这种设计进一步保证了数据的完整性和一致性。

此外,VPLEX双活技术还允许地理上分离的两个数据中心同时进行数据存取,对客户透明,且保证了数据的可靠性和可用性。

利用跨数据中心的存储虚拟化功能和数据镜像功能,结合上层应用集群,可以使两个数据中心都处于运行状态,同时承担相同业务,提高数据中心的整体服务能力和系统资源利用率。

这种设计使得当单数据中心出现故障时,业务可以自动切换到另一数据中心,实现RPO=0,RTO≈0,解决了传统灾备中心不能承载业务和业务无法自动切换的问题。

总的来说,VPLEX双活技术通过其分布式缓存一致性、缓存透写
模式、写透的缓存模式以及跨数据中心的存储虚拟化和数据镜像功能,实现了数据的高可用性、可靠性和一致性,提高了数据中心的服务能力和资源利用率,为企业的业务连续性提供了强有力的保障。

分布式双活数据中心解决方案

分布式双活数据中心解决方案

问 题 ?
4
解决方案(Solution)
5
分布式双活数据中心解决方案
分布式:
资源分布部署,彼此的独立; 资源调度可以跨越多个数据 中心; 逻辑上可以视为一个全局的 大数据中心。
同城中心A
异地中心
多活:
多中心之间地位均等,服务 能力翻倍; 一个数据中心发生故障或灾 难时,其他数据中心可以正 常运行并对关键业务或全部 业务实现接管,用户的“故 障无感知”。
同城中心B
6
分布式双活数据中心易扩展性
分支机构 分支机构 数据中心空间不足了, 面临再次搬迁到更大 空间的数据中心,头 疼! 该怎么办?
C中心
A中心 L2GRE
B中心
不!选择锐捷解决方 案,您从此不需要搬 迁! 锐捷独有的 L2GRE+ETS技术可 以实现数据中心分布 式多活快速扩展。
分支机构
大二层互联 水平分割防环 ARP流量优化
方案2 基于客户端的程序选择
业务通过IP发布,客户端软件支持多个业务IP,并根据一定规 则自动选择连接的业务IP 。
22
场景3:双应用交付+业务通过DNS或IP发布+业务不跨中心集群或虚机跨中心迁移
场景三
方案
双应用交付+业 务通过DNS或IP 发布+业务不跨 中心集群或虚机 跨中心迁移
方案1 智能DNS(要求业务必须通过DNS发布)。
方案 认为不存在这样的场景。理由:集群对外只呈 现一个IP,从对外的角度,只会单活。 方案一 智能DNS(要求业务必须通过DNS发 布) + 双活存储 + 二层互联 + 单侧网关 方案二 基于客户端的程序选择 + 双活存储 + 二层互联 + 单侧网关

联想模块化数据中心解决方案

联想模块化数据中心解决方案

联想模块化数据中心解决方案在当今数字化快速发展的时代,数据中心已经成为企业运营和创新的核心基础设施。

随着业务的增长和技术的不断演进,传统的数据中心建设和运营模式面临着诸多挑战,如扩展性不足、能耗过高、运维复杂等。

为了应对这些挑战,联想推出了创新的模块化数据中心解决方案,为企业提供了更高效、灵活和可持续的数据中心架构。

联想模块化数据中心解决方案的核心在于其模块化的设计理念。

与传统的一体式数据中心不同,模块化数据中心将整个数据中心分解为多个独立的模块,包括计算模块、存储模块、网络模块、制冷模块等。

每个模块都可以根据实际需求进行灵活配置和扩展,从而实现快速部署和按需增长。

这种模块化设计带来了诸多优势。

首先,它大大缩短了数据中心的建设周期。

传统数据中心的建设往往需要耗费大量的时间和精力,从规划、设计到施工、调试,整个过程可能长达数年。

而联想的模块化数据中心可以在工厂内进行预组装和测试,然后运输到现场进行快速安装,建设周期可以缩短至几个月甚至几周,极大地提高了企业的业务响应速度。

其次,模块化数据中心具有更高的灵活性和可扩展性。

企业的业务需求是不断变化的,数据中心的规模和性能也需要随之调整。

联想的模块化设计使得企业可以根据实际业务增长情况,逐步添加或升级相应的模块,避免了一次性大规模投资带来的风险和浪费。

同时,这种灵活性还体现在模块的更换和升级上,如果某个模块出现故障或需要技术更新,只需单独更换或升级该模块,而不会影响整个数据中心的正常运行。

在能耗管理方面,联想模块化数据中心也有着出色的表现。

随着数据中心规模的不断扩大,能耗问题已经成为企业面临的一个重要挑战。

联想的解决方案采用了一系列先进的节能技术,如智能制冷系统、高效电源管理等,能够有效降低数据中心的能耗,提高能源利用效率。

例如,智能制冷系统可以根据设备的负载和环境温度自动调节制冷量,避免了过度制冷造成的能源浪费。

此外,联想还通过优化模块的布局和气流组织,进一步提高了制冷效率,降低了能耗成本。

双活数据中心解决方案

双活数据中心解决方案

双活数据中心解决方案目录一、内容概括 (2)1.1 背景与挑战 (2)1.2 双活数据中心定义 (3)1.3 双活数据中心优势 (4)二、双活数据中心架构设计 (5)2.1 总体架构 (7)2.2 服务器与存储架构 (8)2.3 网络架构 (9)2.4 虚拟化技术应用 (11)三、双活数据中心实施步骤 (12)3.1 项目规划与准备 (14)3.2 硬件部署与配置 (15)3.3 软件安装与调试 (17)3.4 测试与验证 (18)四、双活数据中心运维管理 (19)4.1 运维流程 (20)4.2 监控与管理工具 (22)4.3 故障处理与恢复策略 (23)4.4 安全性与合规性保障 (24)五、双活数据中心案例分析 (26)5.1 国内外成功案例介绍 (28)5.2 案例分析 (28)六、双活数据中心发展趋势与展望 (30)6.1 新技术应用 (31)6.2 行业趋势分析 (32)6.3 未来发展方向 (34)七、总结与建议 (35)7.1 双活数据中心价值评估 (35)7.2 实施与推广建议 (37)一、内容概括本解决方案旨在解决企业在构建双活数据中心时所面临的一系列技术和管理问题。

该方案在结构上兼顾灵活性和安全性,注重提升数据中心间的协作能力和冗余性。

方案首先定义了双活数据中心的目标与要求,强调数据中心之间的实时数据同步、负载均衡以及故障切换机制的重要性。

详细介绍了双活数据中心的架构设计,包括网络架构、存储架构以及计算资源分配等关键方面。

本方案还涉及数据中心运维管理的优化措施,包括资源监控、故障预警与处置流程等。

本解决方案还讨论了如何确保数据安全性和合规性,包括数据加密、访问控制以及审计日志管理等。

本方案总结了实施过程中的关键步骤和潜在风险点,并提出了针对性的建议和解决方案,以帮助企业在实施双活数据中心过程中实现平稳过渡和提升运营效率。

1.1 背景与挑战随着云计算、大数据、物联网等技术的快速发展,企业业务需求呈现出多样化和实时性的特点,对数据中心提出了更高的要求。

EMC_VPlex存储双活建设方案详细

EMC_VPlex存储双活建设方案详细
D.中心机房-利旧存储:除了用来做“存储双活”的现有存储系统EMC VNX5100外,如果还有其他的SAN存储系统,EMC建议,通过VPlex虚拟化功能,将这些旧存储系统挂接到VPlex虚拟化存储中,加以利用;这些存储资源将作为存储资源池共享,按需使用;(注:挂接到vPlex后端的其他存储品牌需要在vPlex的兼容列表内。)
将VPlex不兼容的存储系统上的数据,通过第三方数据迁移工具迁移到VPlex存储资源池中;
4.
A.省局数据的备份:所有的备份数据,都通过备份软件平台进行管理,备份到虚拟带库DataDomain DD620中;备份服务器可以对备份集、备份空间、备份作业调度进行统一的管理,备份存储DD可以对所有写进来的备份数据进行重复数据消除;
VNX 7500还支持LUN的条带化或级联式扩展,以将数据分散到更多的磁盘上;
C.中心机房-存储虚拟化:以EMC VPlex Local作为存储虚拟化;应用系统只需要访问虚拟化存储,而不需要直接管理后端的具体的存储系统;通过存储虚拟化,可以达到两台存储之间双活,可以支持异构的存储系统,对数据进行跨存储的本地及远程保护,统一管理接口和访问接口;
EMC VNX 7500存储系统可同时提供光纤SAN、IP SAN、NAS等多种存储模式,最大可扩展到1000块磁盘,支持光纤盘、闪存盘、SATA盘、SAS盘、NL-SAS盘等多种磁盘混插,大大增强存储系统的可扩展性;
VNX 7500支持将闪存盘作为可读写的二级缓存来使用,VNX7500最大可支持2.1TB二级缓存。同时支持自动的存储分层(FAST),提高存储系统的整体性能;
当VPlex系统自身出现故障时,由于在Vplex中的设置,VPlex不会修改存储系统LUN的配置信息,即,用户可以将存储系统A或B的LUN直接挂到应用系统,保证应用系统的继续运行,不会产生数据丢失。

EMC VPLEX数据中心虚拟化方案

EMC VPLEX数据中心虚拟化方案

EMC VPLEX数据中心虚拟化方案EMC VPLEX数据中心虚拟化方案⒈引言⑴背景在当今数字化时代,数据中心的重要性日益突出。

数据中心存储着组织的关键业务和大量的敏感数据。

因此,数据中心的高可用性和数据保护要求越来越高。

⑵目标本文档旨在介绍EMC VPLEX数据中心虚拟化方案,该方案可帮助组织提高数据中心的可用性和灵活性,并实现更高水平的数据保护。

⒉VPLEX概述⑴什么是VPLEXEMC VPLEX是一种虚拟存储技术,能够将物理存储资源转化为虚拟存储,并提供高度的可用性和性能。

它通过分布式存储架构,将物理存储设备组织成一个统一的虚拟池,并实现跨数据中心的数据迁移和复制。

⑵ VPLEX的优势VPLEX具有以下优势:- 高可用性:通过将存储设备虚拟化并形成一个统一的存储池,VPLEX能够提供非常高的可用性。

即使一个存储设备出现故障,也可以无缝切换到其他设备上。

- 数据迁移和复制:VPLEX支持跨数据中心的数据迁移和复制,可以在不中断业务的情况下进行数据迁移。

同时,它还可以提供异地灾备复制保护。

- 灵活性:VPLEX允许按需分配存储资源,并根据需求进行调整。

它还支持与各种存储设备和操作系统的集成,并能够适应不同的工作负载。

⒊VPLEX部署方案⑴架构设计在部署VPLEX之前,需要进行架构设计。

根据组织的需求和资源情况,可以选择单一数据中心架构、双活数据中心架构或异地灾备复制架构。

- 单一数据中心架构:适用于中小型企业或资源有限的组织,将VPLEX部署在单个数据中心,提供高可用性和数据保护。

- 双活数据中心架构:适用于需要更高可用性和灾备能力的组织。

VPLEX将部署在两个数据中心,同时运行并保持数据一致性。

- 异地灾备复制架构:适用于对数据保护要求更高的组织。

VPLEX将部署在两个地理位置不同的数据中心,通过异地复制实现灾备保护。

⑵网络配置VPLEX需要一个可靠的网络连接来实现数据同步和复制。

在VPLEX部署过程中,需要配置适当的网络连接和带宽,以满足业务需求和数据传输。

双活数据中心容灾解决方案

双活数据中心容灾解决方案

双活数据中心容灾解决方案为什么要讲双活数据中心?从应用系统和系统保护来说,分这么几个角度:首先做容灾,第一个要考虑的是主备,上图左侧是最早出现的主备模式,一般是在两个中心建互备系统,比如我在B中心,容灾系统在另外一个地方,这种模式比较容易切换。

假如A中心出问题了,就绑定在B中心,或者是把数据复制到B中心,容灾资源是闲置着,承担着容灾的任务。

另外真的出问题了,我得需要一个定位,因为并不能确认它是否确实不能用了,所以,要确保这个业务完整,数据也不丢,定的时间加上切换流程,至少得0.5小时,甚至更长,甚至一两天,这样导致弊端很多。

后来为了节约资源,发展到现在双中心互备,A中心一部分做生产,B中心也一部分做生产,在原来的储备方式上做了一个改进,优点是因为这两个中心都有生产业务运行,可通过资源共享技术节省资源。

但仅仅是计算源,对于存储来说,由于这个存储空间必须要保证完整来做,所以没有办法充分利用起来,还是闲置状态。

针对这种问题,我们现在又有了双活并行模式,同一个系统,两个中心都可以承担业务,同时对外服务,坏掉任何一方不影响。

这是非常理想的一种状态,今天主要讲的是要实现这种架构或部分实现,需要哪些技术,需要做哪些工作,只是简单的讲,不一定很深入,也希望能够和大家一起沟通交流,看有没有更好更优的方案。

我主要从应用到基础设施的角度来讲。

因为从整个应用架构来看,咱们有一些业务可能是有接入层,下面是应用逻辑,后面包括还有一些接口,再下面是数据层,再下面是基础架构,有可能有存储和网络,这么几层,每一层都会有相应的双活实现技术。

例如应用层可能有各种集群,数据层可能有一边同时可读写,或一边只能读等。

再如基础架构层,在网络上对稳定性和带宽吞吐性能要求更高,甚至需要打通跨中心的大二层网络,存储方面则需改变一主一备的读写机制,实现同时可读写。

下面从这五个方面展开谈,一个是数据层,二是存储层,三是接入/应用层,四是虚拟化/云平台;五是技术关键点。

EMC Vplex双活数据解决方案

EMC Vplex双活数据解决方案

EMC Vplex双活数据解决方案一、方案目标本方案采用以EMC VPLEX技术为核心的双活虚拟化数据中心解决方案。

EMC VPLEX 产品能够打破数据中心间的物理壁垒,提供不同站点间对同一数据副本的共享、访问及在线移动的能力,结合VMware虚拟化技术及Cisco OTV网络扩展技术,能够实现业务及数据在站点间的透明在线移动,使用户能够在两个站点间动态平衡业务负载,最大限度利用资源,并提供接近于零RTO的高可用能力,是真正意义上的云计算基础架构。

二、方案架构EMC VPLEX双活虚拟数据中心解决方案的构成与功能如下图所示:1)基于EMC VPLEX Metro提供双活虚拟化数据中心解决方案核心功能:2)基于Cisco提供的OTV(Overlay Transport Virtualization)L2 网络延伸技术,从网络层面为虚机在线透明迁移提供条件,及最小化的RTO指标;3)基于VMware虚拟化技术、EMC VPLEX Metro、以及Cisco OTV技术三者的合力实现双活虚拟数据中心4)基于EMC Avamar为双活虚拟数据中心提供完善的数据备份保护5)基于EMC Ionix ITOI(IT Operations Intelligence)产品实现虚拟数据中心的全面集中监控管理三、方案功能3.1 EMC VPLEX方案功能EMC VPLEX 引入了一种新的体系结构,它吸收了 EMC 在 20 年设计、实施和完善企业级智能缓存和分布式数据保护解决方案的实践中取得的经验和教训。

以可扩展、高可用的处理器引擎为基础,EMC VPLEX 系列设计为可从小型配置无缝扩展到中型和大型配置。

VPLEX介于在服务器和异构存储之间,使用独特的群集体系结构,该体系结构允许多个数据中心的服务器具有对共享块存储设备的读/写访问权限。

新体系结构的独特特征包括:- 横向扩展群集硬件,允许您从小配置开始并以可预知的服务级别逐步扩展- 高级数据缓存,它利用大规模 SDRAM 缓存提高性能并减少 I/O 延迟和阵列争用- 分布式缓存吻合性,可跨整个群集自动执行 I/O 的共享、平衡和故障切换- 一个统一视图显示跨 VPLEX 群集的一个或多个 LUN(这些群集可以是在同一数据中心内相距几英尺,也可以是跨同步距离),从而实现新的高可用性和工作负载移置模式。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2015 Lenovo Internal. All rights reserved.
9
通过跨不同位置进行镜像,保持可用 性和无中断访问 高可用性 消除因故障切换 所进行的存储操作
实现跨不同位置对数据的 并发读/写访问 跨远距离 即时和同时访问数据 简化工作流
数据中心迁移
工作负载重新平衡
4个前端8 Gb/s FC端口/Director Engine
6
VPLEX:为客户带来绝佳的业务收益
2015 Lenovo Internal. All rights reserved.
7
成功案例:联宝电子私有云、双活数据中心项目
用户痛点:
1. 2. 3. 4. 7*24小时候不间断工厂,不允许业务中断、数据丢失; 核心MES和SAS ERP系统的存储系统,存在单点故障; 随着工厂产能提高,数据库压力增大,原存储性能不够; 原存储管理复杂,几乎无法监控;
Core Core Core Core
Core Core Core Core
Core Core Core Core
Core Core Core Core
Distributed Cache
Inter-Cluster COM Intra-Cluster COM
Distributed Cache
Inter-Cluster COM Intra-Cluster COM
VPLEX Geo
跨数据中心
同步(5-10ms)
异步(50ms)
VPLEX Local
数据中心内
RecoverPoint
异地恢复与第三方站点保护
延伸
2015 Lenovo Internal. All rights reserved.
5
VPLEX:面向私有云设计
2015 Lenovo Internal. All rights reserved.
Director间通信端口,用于IO处理和分布式部署
B
A
B
A
B
A
B
A
每个VPLEX引擎包含2个Director 每个VPLEX集群包含4个引擎
2015 Lenovo Internal. All rights reserved.
4
VPLEX:双活数据中心、两地三中心部署
VPLEX Metro
跨数据中心
联想解决方案:
1. 2. 3. 4. 联想服务器+EMC VPLEX(Local+Metro)搭建企业私有云; 核心应用迁移到云平台,实现资源统一管理、调度、使用; 在两个机房之间构建RPO和RTO=0的核心数据库双活容灾系统; 构建基于Data Domain的消重备份系统,提供数据备份与保护;
8
联想存储:您值得信赖的数据管理专家
Director A
Front End Back End
Director B
Front End Back End
4个后端8 Gb/s FC端口/Director 2个四核处理器 分布式缓存保存本地信息
利用Fast cache提升读性能
Host & Array Ports
Host & Array Ports
VPLEX双活数据中心解决方案
VPLEX:双活数据中心解决方案
VS1 VPLEX Local VPLEX Metro VPLEX Geo
VS2
在数据中心内部
相隔同步 距离的 Federated AccessAnywhere
相隔异步 距离的 Federated AccessAnywhere
一个、两个或 四个引擎
Vblock 之间的 VPLEX
2
VPLEX:为解决今天的IT挑战而生
移动性
群集 A 群集 B 群集 A
可用性
群集 B 群集 A
协作性
群集 B
Federated AccessAnywhere
Federated AccessAnywhere
Federated AccessAnywhere
跨远距离移动和重新定位 虚拟机、应用程序和数据 灾难避免
相关文档
最新文档