超融合方案
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
可以通过三副本的方式容忍最多两个节点 同时故障,并且硬件故障时数据重建速度
快,性能几乎不受影响
同城和异地容灾都要额外的方案保障, 内置多中心容灾方案,一键配置,开箱即
方案和架构都很复杂
用
通常计算资源充足,但存储能力不足, 计算和存储资源都不存在瓶颈,整合比高
整合比低
出1.5-2倍
对比分析二
特征 安装部署
超融合项目汇报
目C O
录N T E N T S
01. 项目背景 02.超融合与传统架构对比 03.超融合产品介绍
Part
01
项目背景
01 背景说明
UR信息化数据不断增长且集中的业务对 IT 部门的 要求越来越高,所以数据中心需要更为快速的提 供所需能力。
为了适应业务快速发展的需求与稳定运行的环境, IT中心目前正将重要业务系统从白云总部机房迁移 至电信IDC机房。 白云总部机房目前设备使用情况为:
超融合架构中,虚拟化层通过内部的虚拟交换机连 接到“存储控制器”,其中的组建均为通过“软件 定义的”虚拟部件。完全的规避了物理设备的故障 点。
传统的中端存储多采用双控制器架构:
超融合架构中,“存储控制器”使用虚拟机的方式,
1、其中一个控制器故障,另一存活的控制器将接管所有的IO 由软件完全定义,每个节点均包含一个CVM(存储
管理维护 跨数据中心运营
采购模式 总体拥有成本
空间占用
耗电
传统基础架构
超融合架构
复杂,虚拟化、服务器和存储等都需单独安 装配置且考验兼容性,数量多就更加复杂, 至少3-5天
Hypervisor、服务器、存储等都需要单独管 理,还没包括备份、容灾等额外管理模块
无论节点数量多少,一键式初始化过程, 只要30分钟业务系统即可使用
DELL MD 3200i
03 迁移后架构-IDC机房
Vmware虚拟化池
虚拟机
存储网络 业务网络
一台2U机框可包含 超融合服务器
4个服务器节点
思科UCS 5108 刀片服务器
万兆网络交换机
H3C S7503E
H3C S7503E
思科FI 6248
思科FI 6248
光纤交换机
Part
02
超融合与传统架构对比
存储网络
I/O在存储集中控制器上存在 瓶颈,无法横向扩展,纵向扩 展性能问题依然存在,即使将 闪存放置在阵列中也不解决的 问题
存储
为了保证数据冗余,存储设备 必须成对出现,增加投资
存储的分层、备份及容灾等功 能都需额外采购,额外成本非 常高
超融合架构:不再过度配置,按需消费
按照需求扩展容量,横向线性扩展胜过纵向扩展,提升性能。 本身就具备数据分层、本地备份及容灾等功能特性, 一次采购随时使用,无额外成本
统一界面,一键式管理,无需配置LUN、 卷、Raid组
不支持,或需要大量二次开发工作
内置多中心管理和容灾管理能力
大量集中式采购,超买现象严重
按需购买
不仅显性成本(服务器+存储的硬件和虚拟 性价比高,一次购买所有功能具备,开箱 化软件)高,而且隐性成本(备份、容灾、 即用 存储分层、管理等软件的授权)更加不确定
容灾能力
扩展
管理
单一界面,统一管理 计算、存储、虚拟化 等资源,运维管理简
单化
对比分析一
特征 架构特点 市场趋势 所支撑的业务架构
性能
可扩展性 可靠性
可用性 虚拟机整合比(密度)
传统基础架构
超融合架构
集中式
分布式,互联网+
市场萎缩,尤其是SAN/NAS存储市 市场发展快速,未来5-10年数据中心核心
场
架构
传统业务应用架构,I/O集中式处理 从传统业务架构到互联网架构,从集中式
模式
到分布式都支持
随着访问集中存储的服务器越来越多, 不存在性能单点问题,尽可能提供本地吞
性能瓶颈将日益凸显ຫໍສະໝຸດ Baidu
吐,并使用SSD保证应用IO需求,不存在
瓶颈问题
存储架构限制,纵向扩展
计算+存储同时横向线性扩展
通过raid技术实现高可用性,但面对 硬件故障时,性能下降严重。
超融合架构:快速交付
传统架构
超融合基础架构几天内而 不是数月内交付。不再无 所事事和无奈等待。
天数
效率提升30倍!
全套架构,应用配置就绪, 仅需30-60分钟
传统架构与超融合架构
硬件初始化过程
1. 在每个x86服务器上分别安装虚拟化软件 2. 在SAN的存储上面创建一个卷(LUN) 3. 决定这一个卷要使用那种RAID 类型 4. 存储管理人员必需正确的做好zone 和 mask 5. 虚拟机管理人员要重新对每一个ESXi 服务器扫描这个新的卷 6. 虚拟机管理人员将这一个卷格式化成为 VMFS-datastore 7. 存储管理人员監控空间的使用率与效能
超融合架构的优势:互联网的基因
改变采购模式,无需一次 性大规模采购,按需采购;
保护现有投资,延伸到 云计算架构
购买
单一厂商保障所有软 硬件,包括计算、存 储和虚拟化的支持
支持
基于互联网架构,松耦 合设计,开放式架构体
系,面向企业级用户
部署
从上机架开始30分钟 内即可交付使用,部
署快速
分布式架构,线性扩 展,无节点数限制, 无单点故障,内置本 地备份、同城和异地
传统的存储架构中,还存在以下问题: 1、某一块磁盘故障,仅有相关的Raid的磁盘参 与数据重建工作,相对耗时较长; 2、数据重建将针对整块的磁盘的数据块进行重 建,这将增加不必要的时间消耗; 3、Raid中的磁盘数量越多,风险越高,数据重 建速度减慢。
超融合机构中,独特的分布式文件系统的专有容错机制在一定 程度上可以减小随机故障的命中概率: 1、某一块磁盘故障,集群中的所有节点将参与数据重建工作, 以最快的速度将系统恢复至容错状态; 2、数据重建仅针对故障磁盘的有效用户数据进行,而非全部 的磁盘数据块; 3、集群中的节点数越多,则重建数据的速度就越快;
控制器”,“存储控制器”则通过PCI总线,连接
1、仅其中一条链路故障,则主机端可通过“通道管理”软件, 磁盘。完全的规避了物理线缆的故障点。
进行链路故障切换,以保证存储设备的正常访问;
2、两条链路故障,主机端将“丢失”存储设备,数据不可访问。
传统架构中,一般都采用冗余的光纤交换机进行连接,但由于 光纤交换机电源或端口多为故障频发点: 1、如果一台光纤交换机或某一端口故障,则对应链路故障,则 主机端可通过“通道管理”软件,进行链路故障切换,以保证 存储设备的正常访问; 2、如果两台光纤交换机或端口故障,两条链路故障,主机端将 “丢失”存储设备,数据不可访问。
无标准,尤其增加虚拟化之后,设计和布线更加 复杂
互联网数据中心标准化设计和布线
离线操作
在线维护,硬件热插拔
各个厂商分别支持,出问题扯皮现象严重
单一厂商支持,包括虚拟化、计算和存储层
具体比较说明
传统数据中心架构:硬件采购存在的问题
采购规模无依据,服务器过量 采购,硬件折旧快,造成浪费
服务器
为了未来3-5年的数据增量, 超买存储的容量和处理能力, 过重的机头和过大的盘柜都是 成本
超融合架构中,磁盘柜等同于某一个Node中的磁盘控制单元: 1、某一个Node的磁盘不可访问,所有IO将被自动重定向至 其他存活的Node中,且访问性能几乎不受影响; 2、多个Node的磁盘不可访问,绝大部分的IO将被自动重定 向至其他存活的Node中,且访问性能几乎不受影响(在一个 包含12个Node的集群中,允许同时4个Node故障,数据无 丢失,且性能无影响);
互联网+时代的数据中心设计原则
设计目标
• •
无“单永点远故在障线和操RS无作ac单”pali点的ed 瓶业颈务系统EffCicoiesnt cy
• 跨软/硬组件的深度分析能力
• 利用虚拟化能力的云数据中心
• 运营管理和维护:简单、简单、再简单
Business Agility
设计原则
• 标准x86服务器,松耦合架构,模块化设计 • 软件定义的数据中心:软件智能管理和服务 • 分布式一切:线性、可预期的横向扩展 • 同时具备在本地和异地可快速自恢复的系统 • 选择未来5-10年数据中心的主流架构
• NetApp Metro Cluster • EMC VPLEX, RecoverPoint • 众多备份解决方案
超融合架构:基础架构统一运维,简单管理
超融合架构:内置跨多个数据中心的全局管理
无需在远程站点配置专门资源
北京
上海
石家庄
成都
丰富和深刻的分析
解决问题的速度比传统方式快一倍
配置
健康
风险
效率
传统数据中心:可靠性依赖于硬件
• 永远都存在单点问题 • 性能是最大的痛,纵向扩展性能
有限;即使考虑使用分层,需要 额外购买软件许可,成本开销变 大 • 虽然使用的x86服务器虚拟化, 但共享存储依然是单点,必须双 存储或本地备份,都要额外成本 • 容灾方案极其复杂,恢复又无保 障,不同厂商品牌设备组合效果 甚微,而且成本高昂
使用超融合架构:2台4节点,共耗电 2000W
运行三年电费支出约:7.8万元(电费1.5元 /度)
对比分析三
特征
传统基础架构
超融合架构
光纤线缆故障 SAN交换机故障
控制器故障
传统架构中,一般都采用冗余的光纤线路进行连接,但由于光 超融合架构中,虚拟化层通过虚拟链路连接“存储
纤的特殊材质,使得其较易受损:
传统数据中心:运维管理分散和复杂
• IT运行管理
• 虚拟化运行管理 • 虚拟化管理 • 物理硬件管理 • 存储–服务器-网络 • 备份和容灾管理
• IBM Tivoli • HP OpenView • BMC ITOMS • NetIQ • ServiceNow • CA, Solarwinds, Zenoss, ManageEngine,
1
2
3
4
5
传统的数据中心
67
1 超融合架构一键式初始化所有节点,安装完成后业务直接部署
传统数据中心和超融合数据中心
x86虚拟化部署极大地增加了数据中心机房服务器和存储管理(IP网和 FC网的部署、网线网口成数量级变多)的复杂度,超融合代表标准化 数据中心的设计和建设
通过超融合减少资源占用
传统
高达 90% 更少的电力和空间
使用传统架构:8台2路服务器至少占用8U, 使用超融合架构:2台4U高,总共包含4个
存储至少需要3U
节点(包含服务器和存储)
总共占用空间11U
总共占用空间4U
使用传统架构:8台服务器平均每台服务器 耗电600W计算,存储耗电1500w,总共耗 电6300W
运行三年电费支出约为:24.8万元(电费 1.5元/度)
读写工作,其工作负载将大幅提高,响应时间将受到部分影响; 控制器):
2、两个控制器故障,此时,整个存储设备将变得不可用,直到 1、当其中一个CVM故障时,所有本节点的IO操作
硬件故障完全修复。
将自动的被路由、负载至剩余的多个CVM中,保证
IO无中断,并且确保对存活的CVM负载不致于过重;
2、分布式架构,允许多个CVM发生故障,而不影
响现有的业务IO访问;
3、CVM为虚拟化平台中的虚拟机,如非节点硬件
故障,通过简单的对CVM重启,即可让其恢复工作。
对比分析四
特征
传统基础架构
超融合架构
磁盘故障 (关联性)
磁盘故障 (非关联性)
机房标准 升级维护 软硬件支持
传统的中端存储多采用Loop架构进行磁盘连接: 1、其中一个磁盘柜故障,则该磁盘柜相关联的 Raid的数据将变得不可用(Raid3\5\6)或性能降 级状态(跨磁盘柜的Raid10或Raid-DP); 2、多个磁盘柜故障,则其中的绝大部分Raid数 据将变得不可访问。
X86物理服务器:运行重要业务系统数据库;缺乏 扩展资源
UCS刀片服务器(虚拟化):运行应用虚拟机和小型数 据库,缺乏扩展资源
02 现有资源架构
Vmware虚拟化池
虚拟机
光纤网络 千兆网络
刀片服务器
思科UCS 5108
思科UCS 5108
光纤交换机 思科FI 6248
存储服务器
思科FI 6248
NetAPP FAS2240 NetAPP磁盘扩展柜
华为S9303
网络交换机 华为S9303
DELL MD 3200i
03 迁移后架构-广州总部
Vmware虚拟化池
虚拟机
光纤网络 千兆网络
光纤交换机 思科FI 6248
存储服务器
刀片服务器
思科UCS 5108
思科FI 6248
NetAPP FAS2240 NetAPP磁盘扩展柜
华为S9303
网络交换机 华为S9303
Nagios, Zabixx
• vRealize Operations • System Center Operations Manager
• vCenter • System Center Virtual Machine Manager
• OnCommand • UniSphere • UCS manager