OceanStor全闪存存储系统技术白皮书
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
华为OceanStor 5300F, 5500F, 5600F, 5800F, 6800F, 18000F V5 全闪存存储系统
技术白皮书
目录
1闪存的演进及挑战 (1)
1.1SSD 的产生与优势 (1)
1.2SSD 的架构与现状 (2)
1.3当前SSD 在企业级存储阵列使用中存在的问题 (3)
1.3.1针对HDD 设计的存储阵列软件无法发挥SSD 的性能优势 (3)
1.3.2针对HDD 设计的存储阵列软件无法保证SSD 的可靠性 (5)
1.4 华为对SSD 在存储产品中应用的构想 (6)
2华为OceanStor F V5 全闪存存储系统 (7)
3OceanStor F V5 全闪存存储技术原理 (8)
3.1华为在闪存领域的技术储备 (8)
3.2面对未来全闪存数据中心的存储架构设计 (9)
3.2.1华为SSD (9)
3.2.2全新的Smartmatix2.0 架构 (10)
3.2.2.1SAS 3.0 后端全互连 (10)
3.2.2.2缓存持续镜像 (11)
3.2.34S 弹性扩展 (12)
3.2.4华为针对SSD 优化的RAID2.0 技术 (13)
3.2.4.1数据动态负载均衡 (14)
3.2.4.2快速精简重构,改善双盘失效率 (15)
3.3 深度优化的全闪存阵列 (15)
3.3.1 优化IO 流程降低存储阵列的处理时延 (15)
3.4针对闪存架构的增值业务优化 (20)
3.4.1服务质量分级(QoS) (20)
3.4.2虚拟机优化,提升华为全闪存存储效率 (21)
4OceanStor F V5 丰富的企业级特性 (23)
5平滑的迁移到OceanStor F V5 全闪存阵列 (24)
5.1老存储性能优化迁移(SmartMigration) (24)
5.1.1LUN 迁移 (24)
5.2异构迁移 (26)
5.2.1存储异构虚拟化 (26)
5.2.2从异构存储在线迁移到华为OceanStor F V5 全闪存存储系统 (27)
6缩略语表 (29)
1 闪存的演进及挑战
1.1 SSD 的产生与优势
计算、网络、存储是现代IT 系统的基本组成单元。
看计算能力,摩尔定律规范着处理
器性能的上升节奏,每18 个月性能翻倍。
看网络能力,网络速度以5 年为周期进行着
10 倍速率(10M/100M/1G/10G/40G/100G)的技术更迭。
看存储能力,机械硬盘
(HDD)的速度却止步不前,企业级SAS HDD 仅从7200 rpm 增长到15,000 rpm。
计算、
网络、存储三种基本资源的性能增速不均衡,造成需要通过大量的HDD 以RAID 组方式
累加,以求得存储性能相对于计算、网络资源的匹配,进而造成了大量存储容量的
浪费、能源的消耗。
固态盘(Solid State Drives),简称SSD。
由半导体晶体管(闪存颗粒)替代磁介质构成
基本存储单元,由电子读写操作替代传统硬盘的马达驱动和机械臂寻道,极大降低了访
问的延迟,提高了单位时间内的IO 访问效率。
尤其在随机小IO 的读写上,时延由ms
量级下降至100us 量级。
下面两个图为不同层次存储介质的访问时延差别,以及
HDD 与SSD 的性能对比。
L1\L2\L3 代表CPU 内部缓存层级,DRAM 为内存。
相较于
HDD,SSD 的访问时延至少降低两个数量级。
图1-1 不同层级存储介质访问时延
(volatile:易失介质 non-volatile:非易失介质)
1.2SSD 的架构与现状
固态盘(SSD)由控制单元和存储单元(主要是FLASH 闪存颗粒)组成,主机侧接口
与传统硬盘一致。
内部单元分为,主机接口(host Interface)、控制器(Processor)、内
存(RAM),闪存颗粒(Flash Package),如下图所示:
图1-2 SSD 架构图
现状:
1.容量在几百GB 到几个TB,16TB 以上的大容量规格逐渐出现
2.单盘IOPS 在100K 以上,高性能盘片可达200K~300K
3.硬盘价格逐渐降低,$/GB 成本目前已经与2.5 寸15K SAS 持平
1.3当前SSD 在企业级存储阵列使用中存在的问题
虽然SSD 的引入、应用切实提升了传统存储阵列的性能,支持更高的IOPS 和更低的
时延,但是,大部分厂商支持SSD 的融合存储产品,依然是面向HDD 而设计的系统,
只是将SSD 作为一种高转速的HDD 进行使用,并未结合SSD 本身的特性进行系统的重
构与优化。
由于系统面向HDD 的软件设计,SSD 的性能优势无法最大限度发挥,
SSD 的寿命也没有得到有效的管理。
设计和创造使用大量SSD 的存储系统,需要首先理解SSD 和传统HDD 的不同点,以
及这些不同点对存储架构设计造成的冲击。
1.3.1针对HDD 设计的存储阵列软件无法发挥SSD 的性能优势
1.SSD 100us 量级时延,使得存储阵列系统处理时延的影响无形中放大
IOPS、I/O 并发、I/O 时延之间的关系是:。
一块高性能企业级SAS HDD,4KB I/O 随机访问时延约为5ms。
一块SAS 接口SSD,
4KB I/O 随机访问时延约为0.2ms。
如图1-3 所示,假设将一块HDD 和一块SSD 分别接入两台相同配置的主机,然后这
两台主机分别以单并发的压力下发I/O。
图1-3 HDD、SSD 直接与主机相连
图1-3 左侧为HDD,其IOPS 为1 / 5ms = 200 IOPS。
图1-3 右侧为SSD,其IOPS 为1 / 0.2ms = 5000 IOPS。
现在,将图1-3 中的HDD 和SSD 分别插入两台相同配置的存储阵列控制器,再通过
阵列接入到服务器,如图1-4 所示。
图1-4 HDD、SSD 通过阵列与主机相连
存储阵列控制器会引入处理时延,一般而言,控制器引入的时延随压力的不同而变化,在单并发这种小压力情况下,引入的时延一般在0.2ms 左右。
此时,主机看到的IOPS 会发生变化:
图1-4 左侧的控制器加上HDD,其IOPS 为1 / (0.2ms + 5ms) = 192 IOPS。
图
1-4 右侧的控制器加上SSD,其IOPS 为1 / (0.2ms + 0.2ms) = 2500 IOPS。
通过上述计算可以看到,HDD 插入存储阵列后,控制器引入的时延占总时延的比例很小,IOPS 性能几乎无降低。
而将SSD 插入存储阵列后,因为控制器引入的时延占总时延的比例较大,SSD 的性能仅发挥了一半。
因此,将存储阵列中的HDD 简单更换为SSD,这样所构建出来的存储系统,不能充分发挥SSD 的高性能优势。
2.SSD 高IOPS 使得存储阵列系统瓶颈点发生迁移
对于传统存储阵列,HDD 是显而易见的性能瓶颈,这也正是为什么通过增加HDD 就
可以增加整个阵列的IOPS 和带宽。
传统存储阵列的系统软件,都是围绕着如何消除
HDD 的性能瓶颈来设计和开发的。
而对于SSD 来说,单块SSD 的IOPS 就已经达到数万,一个常见的25 盘位硬盘框的潜
在最高IOPS 就已经达到了一百万以上。
所以这时候存储阵列的性能瓶颈,一般位于阵
列控制器,包括CPU 处理能力、系统带宽能力、系统软件的设计和算法等等。
因此在软硬件设计上就应该有所不同,否则无法充分发挥SSD 的高性能优势。
3.基于HDD 设计的cache 算法不适用于SSD
HDD 的随机访问IOPS 约为数百,折算成带宽约为1MB/s;顺序访问带宽约为
200MB/s。
SSD 的随机访问IOPS 约为数万,折算成带宽约为几十上百MB/s;顺序访
问带宽约为300MB/s。
对于HDD,随机访问和顺序访问,二者数据吞吐率差异超过100 倍。
对于SSD,随机
访问和顺序访问,二者数据吞吐率差异只有2~4 倍。
因为HDD 的顺序访问和随机访问之间存在巨大的数据吞吐率差异,因此传统存储阵列
中的各种各样cache 算法,都是围绕如何尽量顺序访问HDD 来设计的。
而SSD 的顺序
访问和随机访问之间,数据吞吐率差异没有那么大,情况发生了巨大的变化。
适用于
HDD 的cache 淘汰算法,不一定适用于SSD。
1.3.2针对HDD 设计的存储阵列软件无法保证SSD 的可靠性
HDD 主要由磁盘、磁头、机械臂、马达等机械部件和控制电路等电气部件组成;而
SSD 消除了机械部件,主要由控制器、闪存颗粒等电气部件组成。
闪存颗粒的数据写
入原理又决定了SSD 的使用寿命与闪存颗粒的擦写次数紧密相关。
因此,HDD 和SSD 在原理上的不同就决定了二者的故障模式也有很大区别。
传统的企
业级存储阵列软件针对HDD 的故障模式做了大量的可靠性设计,但是并未针对闪存颗
粒的特征进行可靠性设计,缺少针对SSD 寿命管理的设计。
因此,针对HDD 设计的存
储系统软件无法保证SSD 的可靠性。
1.4 华为对SSD 在存储产品中应用的构想
1、继承传统企业存储阵列的精华。
传统企业存储阵列在功能、可靠性、可维护性等
方面,已经积累了多年的经验,例如所有有源器件均冗余且可在线更换、具有丰
富的数据保护软件等,类似于这样的特性,全部予以继承。
2、充分考虑SSD 与HDD 的巨大性能差异。
SSD 的性能高出HDD 两个数量级,这直
接导致系统的瓶颈点发生了迁移,因此以前针对HDD 的各种性能设计必须被重新
审视。
3、充分考虑SSD 使用寿命限制。
针对SSD 使用寿命特性进行设计和开发,有效管理
使用寿命,延长使用时间,保证SSD 在企业级存储阵列中应用的可靠性。
2华为OceanStor F V5 全闪存存储系统
如何更好的在存储阵列中使用SSD 介质来面对新的挑战,业界的主流产品大致分为混
合阵列以及全闪存阵列。
华为OceanStor F V5 全闪存阵列在提供高性能的同时,还可以提供完备的数据保护以
及业务连续性保障。
基于华为存储完整的解决方案能力,提供6 个9 的可靠性保障。
1、继承传统企业存储阵列的精华。
传统企业存储阵列在功能、可靠性、可维护性等
方面,已经积累了多年的经验,例如所有有源器件均冗余且可在线更换、具有丰
富的数据保护软件等,类似于这样的特性,全部予以继承。
2、充分考虑SSD 与HDD 的巨大性能差异。
SSD 的性能高出HDD 两个数量级,这直
接导致系统的瓶颈点发生了迁移,因此以前针对HDD 的各种性能设计必须被重新
审视。
3、充分考虑SSD 使用寿命限制。
针对SSD 使用寿命特性进行设计和开发,有效管理
使用寿命,延长使用时间,保证SSD 在企业级存储阵列中应用的可靠性。
从客户角度出发,为满足不同需要的应用场景,华为存储将发展SSD 在存储系统中的
应用提升到战略地位,实现了企业级存储的稳定可靠以及全闪存阵列的高性能表现。
OceanStor F V5 系列全闪存存储,从存储的产品硬件设计、基本IO 流程、增值特性软件、
SSD 盘片等多个维度基于SSD 自身特性进行了优化、重构工作,构建产品差异化,并最
大化SSD 盘片与存储操作系统OceanStor OS 的深度融合,发挥出SSD 的优势,
提供高性能、高可靠、丰富数据特性的全闪存存储系统。
3OceanStor F V5 全闪存存储技术原理
华为OceanStor F V5 通过全局虚拟化技术RAID 2.0+,将SSD 和OceanStor OS 存储软
件完美融合,而且OceanStor F V5 针对SSD 硬盘进行了多维度的深度优化:达到稳定
时延小于1ms 的性能指标、对SSD 的寿命进行了有效管理,同时集成传统存储功能丰
富、经过市场检验的可靠性能力,充分满足用户在性能、可靠性、成本和容量方面的需
要。
3.1华为在闪存领域的技术储备
华为是业界唯一一家同时具备SSD 和存储系统研发能力的存储厂商,掌握SSD 控制器
芯片的核心技术,具有自研SSD 的自主知识产权,目前华为自研SSD 已申请专利150
件,已授权专利130 多件。
3.2面对未来全闪存数据中心的存储架构设计
3.2.1华为SSD
SSD 控制器作为盘片的核心部件,直接决定了盘片的性能、可靠性等关键参数。
当前
HSSD 使用华为自研的第二代控制器,该控制器是一款面向企业级应用,提供目前业界
标准PCIe3.0╳4,SAS3.0╳2 接口,该控制器具备高性能、低功耗特点,同时具备高附加
值存储业务特性。
针对介质磨损寿命下降的趋势,通过增强ECC/数字信号处理、内置
RAID 等技术延长SSD 寿命,满足企业级可靠性应用要求;该控制器支持最新的DDR4、
SAS 12Gb 接口速率以及硬件加速FTL 等技术,为企业级应用提供稳定、低时延的性能。
华为自研HSSD 采用以下手段提升SSD 盘的整体寿命和数据可靠性:
1、更高的ECC 处理能力:随着flash 颗粒制程从2Xnm 向1Xnm 演进,颗粒的擦写带
来的错误比例逐渐增高,传统业界普遍使用的BCH 纠错引擎开始变得不能满足
flash 的纠错要求。
为了保证一贯的数据可靠性,华为SSD 内嵌了与企业级SSD 控
制器匹配的LDPC+DSP 算法引擎。
该引擎融合硬判决、软判决、DSP 等手段,同
时和颗粒厂商深度合作,进行深度调优,使flash 寿命提升最大3 到4 倍。
2、NAND Flash 的内部处理:通过实时监控NAND Flash 的状态,采用后台巡检、基
于介质特性的坏页管理、分类分级管理和Die 失效冗余的方法来提高SSD 的可靠
性;
3、优化的SSD 管理调度算法:通过优化的垃圾回收算法(GC)、磨损均衡算法(Wear
Leveling)、坏块管理算法等,降低SSD 的写放大系数,直接减少或变相增加对
SSD 的磨损次数;
4、系统级针对SSD 的数据保护:通过电压监控模块以及备电电路保护系统降低异常
掉电时可能造成的数据丢失风险。
3.2.2全新的Smartmatix2.0 架构
华为OceanStor F V5 全闪存存储系统拥有PCIE3.0 背板全互联、后端SAS3.0 技术和
Intel 新一代Skylake CPU 所带来的高速通道和强劲的计算能力,灵活满足客户越来越
高的性能需求。
华为OceanStor F V5 全闪存存储系统的6800F V5、18000F V5 每个存储引擎包含4 个控
制器,4 控以内的系统配置,不再需要配置外置交换机和交换线缆,部署更简单,可靠
性更好。
引擎中4 个控制器直接通过机框背板的PCIe 3.0 高速通道全互联。
3.2.2.1SAS 3.0 后端全互连
华为OceanStor 6800F V5, 18000F V5 全闪存存储系统创新推出SAS 3.0 后端全互连接
口卡。
该接口卡由引擎内4 个控制器共享,与4 个控制器都有高速PCIe 连接。
通过后端全互连接口卡,引擎内控制器与硬盘/硬盘框可以实现全连接,引擎内任意两个控制器故障,剩余控制器到硬盘/硬盘框的路径仍然可。
图 1 SAS 3.0 后端全互连接口卡
由于每个控制器到每张 SAS 接口卡都有连接,任意接口卡或任意 1~3 个控制器故障, 剩余控制器仍然有到硬盘的连接。
3.2.2.2 缓存持续镜像
图 2 后端全互连示意图
为了达到更高性能,存储系统都设计有数据缓存;为了保证在控制器故障时,保存在控制器缓存中的数据不丢失,数据缓存都会在控制器之间做镜像。
在传统设计中,存储系统中的两个控制器相互镜像,当其中一个控制器故障时,另外一个控制器缓存中的数据将失去镜像,为了保证故障时数据不丢失,另外一个控制器只能转为透写,从而导致性能急剧下降。
在以高性能低时延为目标的全闪存存储系统中,控制器故障带来的性能冲击是不可接
受的,华为OceanStor 6800F V5, 18000F V5 全闪存存储系统推出的缓存持续镜像技术
(Persistent Cache),以创新的思路,彻底解决了这一问题。
如图所示,当A 控故障,控制器B 的Cache 数据会选择控制器C 或者D 做缓存镜像,
当控制器D 再故障,控制器B 和C 做缓存镜像。
当一个控制器故障时,其承载的业务快速切换到镜像控制器,剩余的控制器重新建立
镜像关系,确保所有的控制器的缓存仍然有镜像。
业务请求可以保持回写而不是透写,
保障了控制器故障后的性能,同时写入Cache 的数据有镜像冗余保障了系统的可靠性。
3.2.34S 弹性扩展
基于Smart Matrix 智能矩阵架构,OceanStor F V5 全闪存存储系统能进行4S 弹性扩展,
并大幅提升系统资源的利用效率。
图5-1 4S 弹性扩展
Scale-Up:通过增加内存、硬盘、业务端口,纵向扩展系统性能、容量和连接能力。
●Scale-Out:通过系统引擎的在线扩展,Smart Matrix 技术将相关资源耦合在一起,
按需增加存储资源,实现了容量和性能的在线线性增长,满足业务对容量和性能的
持续增长需求。
4控的扩展采用背板互联(高端存储)或直连组网(中端存储);超过4 控的扩展,
采用两个冗余的数据交换机DSW(Data Switch),在DSW 中实现数据交换,此种集
群最大支持到4 个引擎;由于交换链路采用双链路设计,保证集群数据交换网
络的冗余性。
●Scale-Deep:通过整合异构存储系统,将其纳入OceanStor F V5 全闪存存储系统统
一管理,消除信息孤岛,保护客户既有投资。
●Scale-In:智能卷根据业务需要,在不增加任何新存储资源的前提下,通过系统内
部自动均衡完成数据智能分布,提升整体资源利用率,实现自动扩展。
当需要扩容存储池,只需插入新的硬盘,系统会自动的调整数据分布,让数据均
衡的分布到各个硬盘上;当需要扩容卷时,只需输入想要扩容的卷大小,系统会
自动从存储池中划分所需的空间,并自动调整卷的数据分布,使得卷数据更加均
衡的分布到所有的硬盘上;
4.1.1华为针对SSD 优化的RAID2.0 技术
RAID(Redundant Array of Independent Disk,独立冗余硬盘阵列)技术诞生于1987 年,
最初由美国加州大学的伯克利分校提出,其基本思想是把多个独立的物理硬盘通过相
关的算法组合成一个虚拟的逻辑硬盘,从而提供更大容量、更高性能,或更高的数据
容错功能。
作为一种成熟、可靠的硬盘系统数据保护标准,RAID 技术自诞生以来一直作为存储系
统的基础技术而存在,但是近年来随着数据存储需求的快速增长,高性能应用的不断涌
现,传统RAID 逐渐暴露出越来越多的问题。
在高性能存储需求场景,大量SSD 硬盘应用于存储阵列,传统RAID 受限于硬盘数量,
在数据容量剧增的年代无法满足企业对资源统一灵活调配的需求,同时,随着硬盘容
量的增大,以硬盘为单位对数据进行管理也显得越来越力不从心。
SSD 硬盘的容量也在逐步增大,以3.84TB 的SSD 硬盘来说,在传统的RAID5
(8D+1P)中,其重构时间在20 个小时左右。
重构的进程会占用系统的资源,导致应
用系统整体性能下降,当用户为了保证应用的及时响应而限制重构的优先级时,重构
的时间还将进一步延长。
此外,在漫长的数据重构过程中,繁重的读写操作可能引起RAID 组中其他硬盘也出现故障或错误,导致故障概率大幅提升,极大地增加数据丢失的风险。
为了解决传统RAID 针对SSD 的上述问题,同时顺应虚拟化技术的发展趋势,众多存
储厂商纷纷提出了传统RAID 技术的替代方案。
LUN 虚拟化:以EMC 和HDS 为代表的存储厂商,在传统RAID 基础之上将RAID 组进行更细粒度地切分,再将切分的单元进行组合,构建主机可访问的空间。
块虚拟化:以华为和HP 3PAR 为代表的存储厂商,将存储池中的硬盘划分成一个个小粒度的数据块,基于数据块来构建RAID 组,使得数据均匀地分布到存储池
的所有硬盘上,然后以数据块为单元来进行资源管理。
图1-1 RAID 技术发展
4.1.1.1数据动态负载均衡
传统RAID 存储系统中一般会有多个RAID 组,每个RAID 组中包含几块到十几块硬
盘。
由于每个RAID 组的业务繁忙程度不同,导致硬盘的工作压力不均,部分硬盘存
在热点,根据SNIA 的统计数据,热点盘的故障率会明显增高。
如下图所示,其中
Duty-Cycle 即忙闲度,指的是硬盘工作时间占总上电时间的比例,AFR 为硬盘年故障
率,不难看出,Duty-Cycle 高时的硬盘年故障率几乎是低时的1.5~2 倍。
RAID2.0+技术通过块虚拟化实现了数据在存储池中硬盘上的自动均衡分布,避免了硬
盘的冷热不均,从而降低了存储系统整体的故障率。
4.1.1.2快速精简重构,改善双盘失效率
纵观近几年SSD 硬盘的发展,其容量的增长远远快于性能的进步,现在15TB 的大容
量SSD 硬盘在当前的企业市场已经非常普遍,而未来32TB 大高容量SSD 硬盘也将在
未来应用到存储系统。
容量的增长使得传统RAID 不得不面临一个严重的问题:10 年前重构一块硬盘可能只
需要几十分钟,而如今重构一块硬盘需要十几甚至几十个小时。
越来越长的重构时间
使得企业的存储系统在出现硬盘故障时长时间处于非容错的降级状态,存在极大的数
据丢失风险,存储系统在重构过程中由于业务和重构的双重压力导致数据丢失的案例
也屡见不鲜。
基于底层块级虚拟化的RAID2.0+技术由于克服了传统RAID 重构的目标盘(热备盘)
性能瓶颈,使得重构数据流的写带宽不再成为重构速度的瓶颈,从而大大提升了重构
速度,降低了双盘失效的概率,提升了存储系统的可靠性。
3.3深度优化的全闪存阵列
3.3.1优化IO 流程降低存储阵列的处理时延
IO 流程基于传统HDD 硬盘设计理念,主要是考虑IO 的合并和顺序度,尽量减少
HDD 磁头的移动。
SSD 不存在磁头移动的问题,关键要均衡发挥出各个部件的能力,
SSD 盘高IOPS 性能,使得存储阵列的CPU 处理能力成为性能瓶颈点。
OceanStor F V5
全闪存存储采用多种技术来提升CPU 的效率。
1.CPU 智能分区算法:
存储阵列内I/O 处理时延是由很多因素决定的,高效的调度框架可解决高速介质I/O 优
先调度执行问题,I/O 在执行过程中需要避免锁冲突、CPU 核间干扰、硬中断的干扰,
确保每个I/O 处理时延是固定的,从而保证系统对外提供稳定的I/O 处理时延。
华为OceanStor F V5 全闪存存储的CPU 智能分区算法能很好的解决这些问题,其实现原理如下:
基于不同业务要求对CPU 计算资源进行分区,隔离OS、控制平面、计算平面、以及硬件中断任务对业务I/O 的干扰;
基于业务IO 的特征,再对IO 处理分区的CPU 进行分组,并能根据业务压力在各CPU 分组间调度,实现分组内IO 免锁处理;
基于CPU 核数对内存进行分核预留,确保每个CPU 核都有自己的内存资源池,并且提供一个公共的内存资源池确保单个CPU 核内存资源耗尽的情况下,能够申
请到内存。
2.镜像I/O 动态聚合算法:
华为OceanStor F V5 全闪存存储采用镜像I/O 动态聚合技术,保证稳定镜像时延同时,降低镜像流程的CPU 消耗,提升随机写IOPS 性能。
镜像流程使用两个对列:接收队列和聚合下发队列;在聚合时只对接收队列中先到达的部分镜像I/O 进行排序聚合,
降低排序聚合过程对镜像时延的影响,提升镜像通道的利用率。
3.Cache 自适应算法:
存储阵列面临种类繁多的业务模型,例如常见的OLTP 和OLAP 的业务模型就完全不
一致,如何确保阵列在不同业务模型下都保持优异的性能?华为OceanStor F V5 全闪
存存储通过对Cache 预取算法、淘汰算法进行深度优化,提供与前端业务匹配的预取、淘汰机制,确保阵列持续保持较高命中率,其实现原理如下:
对Cache 前端I/O 进行业务模型识别,对I/O 进行分流管理,对每一流I/O 提供对应的预取策略,实现I/O 的精确预取,提升I/O 命中率;
淘汰算法中引入访问频度,有助于保存热点数据,同时能够降低预取数据尚未被访问就被淘汰的概率,进一步提升预取效率。
4.I/O 下盘技术:
主机数据写入华为OceanStor F V5 全闪存存储拆分为两个阶段:第一步先写入保电的Cache,第二步再将保电Cache 的数据写入到硬盘。
写入Cache 的过程,华为OceanStor F V5 全闪存存储采用了事务方式(Transaction)的写入技术。
写入Cache 的主机离散数据,会通过事务做聚合,最终整合为一个逻辑大IO(从几MB 到上百MB 不等,逻辑上称之为一个事务)。
后续刷盘时,事务内的数据可作为一个逻辑单位,进行集中刷盘,达到了合并离散数据块的目的,减少写入SSD 时的写放大。
华为OceanStor F V5 全闪存存储采用了ROW(Redirect On Write)刷盘技术。
在将事
务内的数据下盘时,华为OceanStor F V5 全闪存存储会使用新的物理空间来保存更新的
数据,而不是在原位置进行覆盖更新。
因此,在将事务内的数据下盘时,就可以分配
物理上连续的空间来保存数据。
综上,事务方式写入Cache,再加上ROW 写硬盘的策略,就可以有效地将主机的随机数据,在下盘时变成连续IO,降低SSD 盘的写放大。
ROW 刷盘技术决定了在空间分配的时候,华为OceanStor F V5 全闪存存储可以灵活地根据硬盘情况,调整空间分配策略。
除了前述将主机离散IO 变成盘上的连续IO 之外,ROW 策略还可以在SSD 盘上数据分布不均的时候,选择进行“插空写”,让数据分布更
均匀。
5.I/O 智能调度:
对了降低主机IO 时延,华为OceanStor F V5 全闪存存储的I/O 智能调度系统对阵列内
不同类型的I/O 提供不同优先级的调度策略,对数据读写类的IO 提供最高优先级,确
保主机业务的低时延响应;对Smart/Hyper 系列高级特性产生的I/O 提供次优先级,确
保特性性能满足要求;硬盘重构、Pool 格式化、空间回收等后台任务产生的I/O 拥有最
低优先级,保障数据读写I/O 时延最低。
3.4针对闪存架构的增值业务优化
3.4.1服务质量分级(QoS)
随着各行业数字化进程的推进,数据逐渐成为企事业单位的运营核心,用户对承载数
据的存储系统的性能和稳定性要求也越来越高。
虽然不少存储厂商能够向用户提供性
能越来越高的存储设备,但由于存储系统承载的业务种类越来越多,应用场景越来越
复杂,如何满足不同业务在存储系统上的服务质量要求成为一个挑战,存储系统QoS
技术作为一种通过智能调节存储系统中各种资源在不同业务之间进行分配以满足不同
业务服务质量的技术便应运而生了。
在大量使用SSD 硬盘后,存储阵列的资源瓶颈从硬盘本身迁移到了存储阵列控制器的
资源,比如CPU 资源、内存资源、网络并发资源等。
华为OceanStor F V5 全闪存存储SmartQoS 特性可以选择从以下三个方面来保证数据业
务的服务质量:
IO 优先级调度技术:通过区分不同业务的重要性来划分业务响应的优先级。
在存储系统为不同业务分配系统资源的时候,优先保证高优先级业务的资源分配请求。