集群存储技术与产品v4
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
TJ集群存储系统
数据
network
性能瓶颈 聚合带宽
network
存储系统
存储服务器
15
性能:线性增长
 聚合带宽随着存储集群规模扩大而线性增长
─ 规模扩大I/O通道线性增加 ─ 规模扩大I/O控制器线性增加
 充分发挥所有存储硬件的空间资源与性能
16
可靠性:跨节点文件数据冗余技术
 实现机制
– 将每个数据段跨物理存储服务器冗余
突破性能瓶颈
超越容量极限
TJ集群存储系统
2010年01月
目录
1
TJ集群存储系统关键技术
2
竞争对比
3
解决方案及应用案例介绍
2
1、TJ集群存储 系统关键技术
传统存储技术的特点
TJ集群存储系统关键技术和优势
3
存储发展趋势1
文件大小
60 GB
300MB
50MB 10MB xMB 5KB 25KB 4MB
与SAN+SAN FS对比(续)
SAN + SAN FS
共享性能 FC SAN设备本身不支持共享,需要共享文件系统 支持,如StorNext,或EMC自己的MPFS,但这次文 件系统都不是集群设计,性能普遍很低,支持客 户端数量也很有限。硬件上,单个LUN被共享访问 时性能会急剧下降。 仅有Symmtrix DMX3/4支持在线扩展Raid阵列,其 余产品扩容需要停机,重新规划空间分配;容量 越大,性能越低 硬件HA备份设计;数据Raid5数据保护;Raid组 内两块硬盘损坏,或者单台存储设备失效,会造 成数据丢失 磁盘损坏,数据重构时间漫长,一般要5个小时以 上 SAN设备本身只提供基本存储空间,共享、镜像、 安全都需要另购EMC或第三方软件,要实现一个完 整的存储解决方案,需要一个“系统集成”的过程 1、厂家私有光纤协议,需要专人学习、负责维护 2、厂家专用磁盘,价格十分昂贵;3、增加客户 端需要收费昂贵 高
存储集群
12
技术理念:数据和元数据分离
 元数据管理方式
– 元数据操作占文件系统总操作数的60% – 元数据与数据分开独立存储管理 – 由专门的元数据服务器管理所有的元数据内容 – 减少元数据操作与数据读写操作之间的互相干扰 • 元数据操作粒度小 • 数据读写操作粒度大 应用节点
数据通道
存储集群
13
31
广电非编媒资
 特点 跨平台共享, 使用集群文件系统进行全局文件管理,多工作站点以及部门间 可充分共享素材 通过带外虚拟技术和数据直接读取技术带来高聚合带宽, 性能具有良好的平 稳性, 1台存储服务器节点即可满足20个50Mbps码流 无缝对系统的容量和性能进行升级,从而支持更多的非线编工作站和码流;升 级过程无需停机,不需要进行数据迁移
 成本高,TCO更高
据Gartner权威统计,每TB的存储后期维护管理成本,等于初期购置成本的4倍!
解决方案-TJ集群存储
 TJ集群存储解决方案核心为一套并行文件系统软件,通过安装在服 务器上来为用户提供一个文件共享空间  突破传统存储系统的思路,面向海量数据、高并发访问的应用环境  采用集群化技术构建全局统一的大规模文件共享存储系统
TJ集群存储
基于高效的并行存储技术,系统聚合带宽随 着存储规模扩大而线性增长;单个数据对象 可以被多个客户端访问保持性能不变。
扩展性
动态无缝的扩展,扩展之后性能得到提高, 容量越大,性能越高 硬件系统集群化;数据冗余度可调;可以允 许多块磁盘同时损坏,甚至单台存储设备失 效也不会影响数据的完整性 在线系统快速重构和数据恢复,速度是SAN 的数倍,对性能几乎没有影响 系统提供存储、共享、自修复、负载均衡、 安全、镜像等完整的功能,无需另购软件 通用的TCP/IP协议,任何网络维护人员都能 承担维护任务;系统自恢复,接近零维护; 维护升级成本低 低
TJ集群存储
基于高效的并行存储技术,聚合带宽随 着存储集群规模扩大而线性增长. 硬件系统集群化;数据冗余度可调;可 以允许多块磁盘同时损坏,甚至单台存 储设备失效也不会影响数据的完整性 一单个数据对象可以同时被多个NAS访问 可无限的扩展,动态无缝的扩展,扩展之 后性能得到提高.容量越大,性能越高 单目录千万以上 在线系统快速重构和数据恢复,速度是 SAN的数倍,对性能几乎没有影响 系统自恢复,接近零维护;维护升级成 本低;可进行用户定制开发 低
可靠性
并发 扩展性 文件规模 故障恢复时间 维护升级费用 总体拥有成本
与业内主要竞争对手的参数对比
参数 性能 最大以太网通道 SAN EMC Celerra NSX Symmetrix DMX4 NSX: 4x 普通NAS, 约1.6GB/s DMX4:16GB/s NSX: 4x 普通NAS DMX4:128 ESCOM,FC, GigE, or FICON 未公布 NSX up to 16TB NSX < 100,000 NSX < 20 million NAS NetApp 6080 Up to 3GB/s 52 TJ集群存储 (S6000) 100GB/s or higher 5GB/s Cluster with no limits 60 < 300,000 Up to 16TB < 100,000 < 20 million 1,500,000 500,000 单卷容量 单目录文件数量 最大文件数量 500TB 1000万以上 百亿 15亿 单套系统容量 NSX:192TB DMX4:2.4PB 1.2PB 64PB 500TB
IOPSHale Waihona Puke Baidu
备注: TJ集群存储的参数红色的数据为系统设计数据,蓝色数值为实际案例中的数据(比较早的系统实测数据)
3、解决方案 及应用案例
30
石油高性能计算
 特点 – 上百台计算服务器并发访问,读写带宽要求非常高; – 地震资料文件非常大; – 要求系统性能和容量同步增加,不中断业务扩容; – 提供高效、稳定的数据读写性能支持,提供99.999%的系统可靠性。
元数据通道
元数据集群
技术理念:集群技术
 元数据集群
– 文件系统的整个名字空间按照元数据服务器的个数进行均分 – 可靠性:元数据服务器两两配对,互相备份 – 效率:支持海量文件高速查询
• 单个目录下可高效存放上千万个文件或子目录 • 提供高效文件查询操作,支持海量文件(实际案例中单套TJ集群存储容纳了15亿 文件)
高性能集群计算节点
TJ集群存储解决方案
高性能集群计算节点
…
… TJ集群存储优势: 1.构建灵活 2.容量和性能可扩展 3.较低TCO 4.无缝兼容应用 …
元数据集群 存储节点集群
高速IP网络
SAN FS Client
VS
高速IP网络
FC网络
以太网络
…
MDC
RAID 子系统
实际对比结果
分别运行4个节点24个线程和8节点64个线程,单位:MB
33
TJ集群存储与IBM GPFS性能比较
34
TJ集群存储与IBM GPFS比较
• TJ集群存储与IBM GPFS相比较,并发写性能 高约30%,并发读性能高约10%。 • 而且GPFS实测过程中,当正做并发读写的时 候,在客户端无法对GPFS挂载目录进行ls(查 看目录中的文件)操作,即GPFS在有负载的 情况下无法查看其中的数据,这样使得系统在 有任务时,就无法取出存储在GPFS中的结果 数据。这种现象说明GPFS的元数据处理能力 很低,在有大量文件的情况下会导致系统无法 提供服务。
17
跨服务器文件数据冗余技术
应用服务器集群
文件A
A3副本A4 A2 A1 A4副本 A3 A2副本 A1副本
…
恢复
A2副本
交换机
设置全局策 略消除单点 故障
A1副本
存储服务器集群 恢复
动态删除 18
扩展性:卓越的平滑扩展能力
 动态在线增加存储设备
– 允许动态增加单块磁盘 – 允许动态增加存储服务器
– 单点管理、监控 – 内置全自动管理机制,减少管理员的参与 – 中英文界面切换
21
兼容性:支持异构环境共享
 无需对应用系统打内核补丁
TJ集群存储 LeoFS协议
标准IP网络
 提供类似于本地磁盘的盘 符,兼容原有的应用
TJ集群存储系统
应用服务器
22
2、竞争对比
与SAN+SAN FS对比
SAN解决方案
EMPTY 平衡
 当系统在线和生产时,自动平衡系 统将内容引入新的存储节点。
FULL EMPTY 平衡
EMPTY FULL 平衡
EMPTY FULL 平衡
 不需要人工干涉,不需要重新配 置,不需要服务器或客户安装点或 应用程序变更。
EMPTY FULL 平衡
20
简易管理:单点配置管理
 简易的远程管理监控
文档
数据库
照片
音乐
视频
地图
研究数 据
传统数据类型
非结构化数据
非结构化数据爆炸性增长,数据量GB级到TB、甚至PB级的转变
存储发展趋势2
Â计算技术的变迁
集群计算技术发展迅速,存储资源需要在集群内共享
存储发展趋势3
Â协议的开放化趋势
开放式的协议越来越流行
存储发展趋势4
Â存储介质变化的挑战
– – – – 解决性能瓶颈问题 提高扩展能力 消除单点故障 采用通用硬件构建,控制整体成本
10
TJ集群存储系统架构图
存储节点: 存储用户的实际数据,系统的存储资源提供者
元数据节点: 管理文件系统的元数据
系统架构:工作流程
应用节点
获取文件相关信息 访问请求
…
数据读写 元数据集群 1. 文件访问请求 2. 文件访问应答 3. 文件读写访问
单磁盘容量迅速增大
存储控制器成为性能瓶颈 磁盘容量变大,Raid重建时间长 第二块磁盘失效几率增加
磁盘容量小,价格昂贵,数据可靠 性采用 Raid5来保证不失为良策
Raid遭遇了性能和可靠性方面的挑战
存储发展趋势5
 性能瓶颈及负载的不平衡:
据IBM发布的数据,由于 LUN之间不共享,加上Raid 开销,系统实际空间利用 率不到30%!
可靠性
故障恢复时间 完备性
维护升级费用
总体拥有成本
与NAS对比
NAS方案
应用 服务器
TJ集群存储方案
应用 服务器
高速IP网络
VS
高速IP网络
…
元数据节点集群 存储节点集群
集群NAS设备
与NAS对比(续)
NAS
带宽 NAS设备数据出口少,容易成为性能瓶径. 硬件HA备份设计;数据Raid6数据保护;Raid 组内两块以上硬盘损坏,或者单台存储设备失 效,会造成数据丢失 双Active集群文件服务器,一个数据对象同时只 有一台FS服务器能够访问 不支持在线扩展,扩展能力有限;扩展到一定 程度后会造成性能的降低.容量越大,性能越低 单目录百万级文件,超过百万目录出现异常 系统重构需要中断业务,Raid重建影响性能, 时间很长 厂家专用磁盘,价格十分昂贵;技术支持由代 理商完成,不能提供用户环境调优和定制开发 较高
32
互联网视频存储解决方案
  现有存储方案-NAS – 容量扩展需要业务停机切换,过程复 杂,限制用户每天上传视频的容量 – 原计划高清视频点播由于存储系统性 能和容量限制,难以上线 – 管理员进行24×7小时的监控管理
现有的TJ集群存储存储方案 – 放开了互联网用户的上传容量限 制,视频爆炸性增长 – 高清视频快速上线,吸引大量用户 – 无停机的存储容量扩展,容量已达 600TB
 实现策略
– 允许在一套系统中为不同应用的数据设置不同的冗余度 – 允许冗余度可以动态在线设置 – 系统内置自动故障探测机制,可动态探测故障,并自动启动数据的恢复流程
 特点
– 全系统规模快速数据恢复 – 真实数据恢复,恢复速度是RAID的5倍 – 恢复过程中无须管理员参与,完全自动进行 – 恢复流程在后台完成,极大降低对前端应用服务器的影响
 特点
– 用户在使用的过程中随时都可以进行扩容操作 – 扩容过程无需中断应用的正常使用,新增容量即插即用 – 为规划未来存储空间提供了极大的便利 – 节省了用户的一次性投资规模,真正做到按需扩容
19
扩展性:动态在线扩容和容量均衡
 自动平衡:自动跨节点数据平衡
减少成本以及减少复杂性和规模存储风险
 存储集群
– 文件被切片后被分布式的存储在存储节点集群中 – 可靠性:数据集群范围的冗余保护 – 效率:提供高并发数据访问
• 提供GB/s的聚合吞吐量(实际案例中单套TJ集群存储系统提供了高达5GB/s的带宽) • 性能随着存储集群的扩大而增加
14
性能:高效数据读写聚合
NAS Storage
应用节点
我也没 法帮你
我扛不 住了!
瓶颈
控制器
控制器
控制器
LUN1
LUN2
LUNn
存储资源与计算资源难以灵活调度 热点数据、硬件利用率低下的问题
存储发展趋势6
 扩展性差
系统扩展需要规划容量分配、负载分配、定义命名空间、数据迁移,还需要停机 (极少数最高端设备除外),准备失败预案…
 架构复杂
热数据,冷数据,在线存储,近线存储,离线备份,生命周期管理,容灾……