2NetApp存储基础学习汇总_磁盘和卷管理
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2NetApp存储基础学习汇总_磁盘和卷管理学习汇总,第二部分, NetApp存储基础
目录
一、管理磁盘和
卷 ..................................................................... ...................................................... 1 1.1、管理磁
盘 ..................................................................... .. (1)
1.1.1、raid组概念...................................................................... .. (2)
2.1.2、什么是
PLEX ................................................................... . (3)
2.1.3、Hotspare盘概
念 ..................................................................... (3)
2.1.4、raid组大小的选择及考
虑 ..................................................................... (4)
2.1.5、不同大小和转速的硬盘混装在同一存储的处
理 (5)
1.2、配置RAID
组 ..................................................................... (6)
1.2.1、Raid4和Raid DP...................................................................... . (6)
1.2.2、一些关于raid组选项的设
置 ..................................................................... .. (11)
1.2.3、一些关于磁盘操作的常用命
令 ..................................................................... . (12)
1.3、认证的磁
盘 ..................................................................... ............................................... 15 1.4、怎么标识磁
盘 ..................................................................... ........................................... 16 1.5、怎么管理
volume ................................................................. .......................................... 18 1.5.1、磁盘、RG组、plex与aggr的关
系 ..................................................................... . (18)
1.5.2、volume的定义、传统volume和flexvolume(灵活
卷) (18)
1.5.3、卷组成的层次结
构 ..................................................................... (19)
1.5.4、传统卷和灵活卷要考虑的问
题 ..................................................................... . (21)
1.5.5、root volume和
/VOL ................................................................... (22)
1.5.6、数据的可靠
性 ..................................................................... .. (22)
1.5.7、aggr命令和vol命
令 ..................................................................... (23)
1.5.8、Disk scrub命令...................................................................... .. (26)
二、优化磁盘的配
置 ..................................................................... ................................................ 27 2.1、volume和aggr 的考
虑 ..................................................................... .. (27)
一、管理磁盘和卷
1.1、管理磁盘
1.1.1、raid组概念
SCSI磁盘阵列内部结构图(单控制器):
SCSI磁盘阵列内部结构图(双控制器):
Raid组是多个磁盘组合在一起,每个RAID group(RAID4)包含一个校验盘和一个或多个数据盘,当数据盘损坏的时候,存储会确定那个盘上都有哪些数据,然后在hot spare盘上重建这些数据。
RAID DP有两块校验盘,可以保护RAID组里面两块盘损坏,最少的盘数量至少是3块,一块数据盘,一块校验盘,一块dual校验盘。
如果是校验盘损坏了,则可以根据数据盘的内容来重建。
2.1.2、什么是PLEX
A plex is a collection of one or more RAID groups that together provide storage for one or more Write
Anywhere File Layout (WAFL?) file system volumes.
PLEX是一个或多个RAID组的集合,它们在一起为WAFL文件系统卷提供了存储能力。
Aggregates是一个或一组Plex组成的。
Plex是由一个或者多个RAID4或者RAID DP组成的。
2.1.3、Hotspare盘概念
当有盘损坏的时候,可以用sysconfig –r命令来看具体是那块盘损坏了。
Hot Spare盘有以下特点:
, 不包含数据
, 不管是哪个RAID组的盘损坏了,都可以替换,也就是说hotspare盘是全局起作用的,而不是属于哪
个raidgroup。
可以这么说hot spare属于整个存储,但是不属于某个RAID GROUP。
, 自动替换损坏的盘
, 至少应该和损坏的盘大小一样,而不能比损坏的盘容量还小
, 系统会选择正确的盘来作为hotspare盘
, 可以非常快的替换
从上图可以看见,hotspare盘是属于存储的,而不是属于哪个raidgroup,当出现盘损坏后,存储会自动的重建数据或校验数据在hotspare盘上。
你可以在线的更换新磁盘,在坏盘换下来,新盘就作为hotspare盘来使用,如果raidgroup不是做成raid DP则如果出现两块盘同时损坏,就会发生数据丢失。
如果一个卷包含超过一个raidgroup,那么可以忍受两块盘损坏,但这两块盘必须是不属于同一raidgroup时,才可以。
如果没有hotspare盘去替换已经损坏的盘,系统将会运行在一个”降级”模式,这时候虽然数据没有丢失,但性能不是最佳的,如果超过了这个时间还没有更换新的磁盘,系统就会自动关机。
缺省的这个时间由下面的参数决定。
wangjun> options raid.timeout
raid.timeout 24
如果过一个长假,希望延长这个时间,则可以修改这个参数来实现。
但是延长这个时间带来了很大风险,会造成其它盘损坏。
在”降级”运行期间,如果是设置的raid4,再坏块盘,就会丢失数据,而如果是raid dp还不会丢失数据,除非坏第三块盘。
2.1.4、raid组大小的选择及考虑
Raid组大小的定义要考虑到客户的需求以及性能的优化,netapp的raid组可以由2-28块硬盘组成。
, Raid组支持的最小数量是与raidgroup类型有关系。
, Raid组支持的最大数量是与raidgroup类型有关系。
, 缺省的raid组大小是在基于不同raid类型的基础上考虑性能最优和容错要求。
支持的最大 raid组:
平台 RAID DP RAID 4 SyncMirror_Local 备注 FAS6000 FC或SAS盘:28FC或SAS盘:14块RAID 6 + RAID 1 Raid6是针对大于
(26 个数据磁盘盘(13 个数据磁盘或 RAID 4 + RAID 146G盘的配置推
加 2 个奇偶校验加 2 个奇偶校验1 荐。
磁盘) 磁盘),缺省raid组大小是
SATA盘:16(14 个SATA 盘:7块(6 raid DP是16
数据磁盘加 2 个个数据磁盘加 1 Raid 4 是8
奇偶校验磁盘个奇偶校验磁盘)
FAS3100 FC或SAS盘:28FC或SAS盘:14块RAID 6 + RAID 1
(26 个数据磁盘盘(13 个数据磁盘或 RAID 4 + RAID
加 2 个奇偶校验加 2 个奇偶校验1
磁盘) 磁盘),
SATA盘:16(14 个SATA 盘:7块(6
数据磁盘加 2 个个数据磁盘加 1
奇偶校验磁盘个奇偶校验磁盘)
FAS2000 FC或SAS盘:28FC或SAS盘:14块RAID 6 + RAID 1
(26 个数据磁盘盘(13 个数据磁盘或 RAID 4 + RAID
加 2 个奇偶校验加 2 个奇偶校验1
磁盘) 磁盘),
SATA盘:16(14 个SATA 盘:7块(6
数据磁盘加 2 个个数据磁盘加 1
奇偶校验磁盘个奇偶校验磁盘)
2.1.5、不同大小和转速的硬盘混装在同一存储的处理不同时期采购的硬盘可能会造成同一存储中,有不同大小的硬盘,不同大小的磁盘需要不同的DataONTAP 版本或者磁盘柜的支持,这个具体信息需要看系统配置手册。
一个raid组里面的hotspare和校验盘必须是最大尺寸的,否则无法备份任何数据盘里面的数据。
一个volume里面支持磁盘尺寸不一样,但是netapp不推荐这么做,这样会带来性能的下降,即一个volume里面磁盘尺寸大小最好一致。
下表是FAS6000支持的磁盘类型和大小(2009年12月)
FC盘 9/18/36/72/144/300GB 9/18/36/72G虽然支持但现在不出货了,其实也就是支持144G
和300G的
SATA盘 250GB, 500GB, 750GB, 1TB
SAS盘 300GB、450GB、600GB
上图表示我那一块大硬盘去重建数据,而被替换的硬盘尺寸小,那么就会出现容量的损失,上图72G的盘只能作为36G的来使用了。
DATA NOTAP支持把不同转速的盘混合起来使用,需要打开raid.rpm.ata.enable
和raid.rpm.fcal.enable选项。
以下是缺省情况这两个选项的设置值:
raid.rpm.ata.enable off raid.rpm.fcal.enable on
1.2、配置RAID组
1.2.1、Raid4和Raid DP
(1)、RAID4 水平行奇偶校验
下列图表说明了在传统NetApp RAID4 解决方案中使用水平行奇偶校验的方法,也是您了解RAID DP 和双奇偶校验的第一步。
图
图表代表了传统的RAID4 组,使用包括4 个数据磁盘(前4 列,标注为“D”)和一列奇偶校验磁盘(最后一列,标注为“P”)的单向奇偶校验。
上面图表中的行显示了实施传统NetApp RAID4时使用的标准4KB 块。
上面图表中的第二行在每个4KB 块和行中数据的奇偶校验计算中添加了一些样例数据,随后存储在奇偶校验磁盘上相应的块中。
在这种情况下,计算奇偶校验的方式是向每个水平块中添加值,然后将这些值的和存储为奇偶校验值(3 + 1 + 2 + 3 = 9)。
实际上,奇偶校验是通过专门的OR(XOR)过程进行计算,但其它情况也与此例非常相似。
如果需要从单一故障中重建数据,则产生奇偶校验的过程将与此相反。
例如,当RAID4
恢复上面第一列的数据值3 时,如果第一个磁盘发生故障,就会从奇偶校验中存储的值中减去剩余磁盘上的值( 9- 3 - 2 - 1 = 3)。
这个通过单一奇偶校验RAID 重建的例子,应该有助于从概念上理解为什么能够对单一磁盘故障提供数据保护。
(2)、添加RAID DP 双奇偶校验条,Raid DP是如何做的
下表将一个以蓝色阴影块表示的对角线奇偶校验条和一个在第六列中以“DP”表示的第二个奇偶校验磁盘添加到前面的RAID4 组中。
这表示RAID DP 结构是RAID4 水平行奇偶校验解决方案的超集。
在这个例子中对角线奇偶校验条通过相加的方法计算,并且存储在第二个奇偶校验磁盘上,而不是按实际使用的XOR校验来计算的:(1 + 2 + 2 + 7 = 12)。
解释:对角线校验将第一块校验盘上的内容也作为数据来处理。
下一个图表为每个块加入了余下的数据,并且建立了相应的行和对角线奇偶校验条。
从上图可以明显看出,在RAID DP 中,对角线奇偶校验条都在行奇偶校验结构的边上。
在这个例子中,对于RAID DP 对双磁盘故障进行恢复的能力,有两种重要情况需要注意。
, 第一种情况是,每一个对角线条会错过唯一的一个磁盘,但是每个对角线错过的磁盘都不一样。
一条
对角线:有一行的某个块上数据的校验没有被记录在对角线校验中,但从上图看错过的磁盘是不规律
的。
, 第二种情况的结果是,在第二个对角线奇偶校验磁盘上会产生一个没有得到奇偶校验的对角线条。
上
图中白色的块没有被记录到校验盘。
在这个例子中,被遗漏的对角线条是白色的块。
在之后的重建例子中会明显的看出,遗漏一个对角线条不会影响RAID DP 在双磁盘故障中恢复所有数据的能力。
值得重视的是,在本例中介绍的许多同样的RAID DP 对角线奇偶校验都是真实的存储情况;其中涉及到在RAID 组中的许多磁盘上,以及通过 RAID4 组水平写入成数百万的数据行。
并且,通过上面较小的例子我们很容易地例证了RAID DP,而且不管RAID 组中的有多少磁盘,对于大尺寸的RAID 组,其恢复情况也与此相同。
由于RAID DP 可以通过两种方式对双磁盘故障进行所有数据的恢复:一种是使用数学原理并进行证明,另一种则是简单地通过双磁盘故障并随后进行恢复。
本文将使用后面的方法来证明RAID DP 的双奇偶校验保护的概念。
使用数学原理和证明的方法,超出了本文对RAID DP 的叙述范围,
但我们在另外一篇文章中单独进行了描述,而且即将在NetApp 的外部网站上发布。
(3)、双盘数据丢失后,RAID DP 的重建
我们使用最近的图表开始介绍双磁盘故障。
假定在发生双磁盘故障时,RAID
组运行正常。
在下表中,第一、二列中的所有数据都丢失了。
当发生双磁盘故障之后,RAID DP 首先会寻找一个链来开始重建。
在本例中,我们用蓝色的对角线奇偶校验条来显示其所发现的链。
不要忘记,当在RAID4 下
为单一磁盘故障重建数据时,只有在丢失的元素不超过一个时,这种情况才会发生。
记住这一点之后,我们可以看到上图中蓝色对角线条中只丢失了五个块中的一个。
借助五个元素中仍然存在的四个,RAID DP 能够获得所需的全部信息,(也就是说根据RAID DP数据存储方式和校验方式,有一个链可以开始对角链恢复,那么就从这个链开始恢复计算),来重建蓝色丢失块中的数据。
接下来的图表反映了这些数据被恢复到空闲的磁盘上。
从丢失的蓝色对角线块中重建数据时,使用了前面介绍的算法(12 - 7 - 2 - 2 = 1)。
现在,丢失的蓝色对角线信息已经被重建,恢复过程从使用对角线奇偶校验转换至使用水平行奇偶校验。
特别是,蓝色对角线之后的顶端的行重建了丢失的对角线块,而没有足够的信息从行奇偶校验中重建单个丢失的水平块(9 - 3 - 2 - 1 = 3)。
这种情况出现在下列图表中。
RAID DP 接下来继续处于同样的链中,以决定是否能够重建其他的对角线条。
上面左方的块被行奇偶校验重建,使得RAID DP 现在能够重建灰色对角线条中相对的对角线块,如下图所示。
再一次,当RAID DP 恢复了对角线条中相对的对角线块后,它就有了足够的行奇偶校验信息,来重建第一列中丢失的水平块,接下来的图表中例证了这个情况。
图 32:
与我们前面所注意到的一样,白色对角线条没有被存储,现存的链中也没有额外的对角线块能够重建。
RAID DP 将开始寻找新的链以开始重建对角线并且,基于这个例子,决定了其能够重建黄色对角线条中丢失的数据,如下图所示。
在RAID DP 重建了丢失的对角线块之后,这个过程再次从行奇偶校验转换至重建丢失的水平块。
当黄色对角线中丢失的对角线块被重建后,可以得到足够的信息重建行奇偶校验中丢失的水平块,由下图可以明显看出。
水平行中丢失的块被重建之后,重建转换回对角线奇偶校验以创建丢失的对角线块。
RAID DP能够继续处于当前的对角线链中如下图所示。
同样,在对角线块恢复之后,因为有足够的信息重建一个水平块信息,这一过程将会转换回行奇偶校验。
接下来是双磁盘故障情况的最后一个图表,通过RAID DP 所有的数据都被重建了。
RAID DP 卷的性能可以与RAID4 相媲美。
每种类型的RAID 的读操作几乎一样。
RAID DP 的写操作性能要比RAID4 慢2%到3%。
造成性能微小差距的原因是RAID DP 卷上的第二个对角线奇偶校验磁盘会出现额外的写操作。
相对于
RAID4,运行RAID DP 时CPU 的利用率并无明显差别。
总结:
, RAID DP的写操作比RAID4+稍有些慢。
, 先恢复对象线校验盘上的数据,使水平校验有足够的数据,然后再恢复水平校验盘上的数据。
1.2.2、一些关于raid组选项的设置
RAID 组是建立卷的基本结构.
--功能:设置系统可以在降级模式缺省运行的时间
--功能:设置重建的时候分配的系统资源的多少
,==这个在7.3里面已经没有了
,==修改指定卷的RAID组类型,Values: raid4 (default), raid _dp
aggr options aggr0 raidtype raid4
Netapp存储使用disk scrub技术,避免因为介质错误,坏扇区等问题造成数据丢失。
启动这个功能后,raid组里面的每块盘都扫描来发现错误,如果发现了错误,则通过校验数据重建和重写数据。
如果不这样做,如果在降级模式运行则会造成多块盘损坏。
如果options raid.scrub 是off的,也可以手动启动此命令。
什么时候会造成降级运行,raid group设置为RAID 4,其中一块盘损坏,设置为RAID DP, 但RAID组中同时两块盘损坏,而且没有设置hot spare磁盘,此时存储降级运行,缺省时间是24小时,在此时间内如果没有更换磁盘,则系统shutdown。
1.2.3、一些关于磁盘操作的常用命令
首先创建一些物理卷:
,===查看aggr空间的使用情况
vol0
Snap reserve
WAFL reserve
600MB(保留了10%)
5129MB ,=可用是5.2个G
,==可以看见aggr1包含两个raid组每组是5块硬盘
dparity v4.32 v4 2 0 FC:B - FCAL N/A 1020/2089984 1027/2104448
parity v4.48 v4 3 0 FC:B - FCAL N/A 1020/2089984 1027/2104448 ,校验
盘
dparity v4.21 v4 1 5 FC:B - FCAL N/A 1020/2089984 1027/2104448
parity v4.34 v4 2 2 FC:B - FCAL N/A 1020/2089984 1027/2104448
通过标记一块磁盘fail来显示换盘的过程:
disk fail v4.33,==将v4.33这块盘标记为失败,则会有spare盘开始拷贝过
来
消息提示开始向ID号最小的V4.41开始拷贝数据
data v4.33 v4 2 1 FC:B - FCAL N/A 1020/2089984 1027/2104448 (prefail, copy in
progress)
-> copy v4.41 v4 2 9 FC:B - FCAL N/A 1020/2089984 1027/2104448 (copy 55% completed)
,==拷贝完了,发现v4.41已经变成了数据盘admin failed v4.33 v4 2 1
FC:B - FCAL N/A 1020/2089984 1027/2104448 wangjun> disk replace start
v4.41 v4.33
wangjun> disk zero spares ,===格式化所有的spare盘
wangjun> disk sanitize start v4.41 ,===清洁磁盘
wangjun> disk scrub start
wangjun> vol status -r
(scrubbing 4% completed)
(scrubbing 4% completed) ,=提示正在做scrub
wangjun> disk checksum all ,==近线存储才支持这个命令
wangjun> disk swap和disk unswap Command Meaning
disk sanitize start disk_name Start removing all disk data. disk sanitize abort disk_name Stop removing all disk data. disk zero spares Zero all non-zeroed RAID spare disks. disk.auto.assign Autoassign disks on systems with
software disk ownership (default: on). disk_fw_update disk_list Manually update firmware on disks
(automatic on Data ONTAP 6.0 or
later).
1.3、认证的磁盘
Netapp用的硬盘必须是netapp认证的,如果你拿外来的硬盘插入Netapp的磁盘柜,会有72小时的时间让你移除它,否则系统就强制shutdown了。
还有一些额外的动作:
, 管理端口消息、autosupport
, 没认证的盘被标记为unqulified等。
wangjun> rdfile /etc/qual_devices ,===认证的盘被保存在这个文件。
D NETAPP NTAP2770 849d D TMS FC65 1.4d 512 D Curtis Nitro!FC 2.02 512 D
Exavio ExaFCT/ExaMax 2.0 512 D SEAGATE ST12400N 9072 512 D SEAGATE
ST12550N 0013 512 D SEAGATE ST32430N 0000 512 D SEAGATE ST43400N 0000 512 D SEAGATE ST43400ND 0000 512 D SEAGATE ST43401N 0000 512 D SEAGATE ST43401ND 0000 512 D SEAGATE ST43402ND 0111 512 D SEAGATE ST15150N 0023 512 D SEAGATE ST15150W 0023 512 D SEAGATE ST15230N 0000 512 D SEAGATE ST34572WC 0784 512 D SEAGATE ST19171W 0024 512 D SEAGATE ST19171FC FB59 512 D SEAGATE ST39102FC NA27 512 为了避免由于插入没有认证的盘造成系统down机,可以采取以下措施: , 移走没有被认证的硬盘(不是netapp或认证的供应商提供的硬盘) , 下载最新的/etc/qual_devices文件从netapp网站,这会验证所有不认证的磁盘,看现在支持不支持了。
1.4、怎么标识磁盘
磁盘标识可以快速定位磁盘的位置。
磁盘标识是由path_id和device_id组成,表现为path_id.device_id
Path_id-指得是适配卡所在的插槽,比如下图就是磁盘柜接到4号插槽的a口。
所以path_id=4a Device_id是指磁盘的loop ID或者SCSI ID号。
Device_id是由磁盘柜的类型、磁盘柜的ID号和这块磁盘装在第几个bay来决定。
4a.16对应DS14磁盘柜是shelf ID=0,BAY=0.
看上图:Bay是从右到左开始编号,从0开始。
如果你安装了DS14型号的磁盘柜在一个loop里面,而这个loop又包含
FC7\FC8\FC9(这些是老型号的磁盘柜)光纤磁盘柜,则DS14必须是最后一个磁盘柜
和最高的磁盘柜ID以避免地址冲突。
下图标识出了 bay和loop ID的对应关系: FCx系列磁盘FCx FCx DS14系列磁盘DS14 DS14 柜 Loop ID Not Use 柜
Loop ID Not Use Shelf ID Shelf ID
0 6 - 0 - - - - 1 14 - 8 7 1 29 - 16 15 - 0 2 22 - 16 15 2 45 - 32
31 - 30 3 30 - 24 23 3 61 - 48 47 - 46 4 38 - 32 31 4 77 - 64 63 - 62 5 46 - 40 39 5 93 - 80 79 - 78 6 54 - 48 47 6 109 - 96 95 - 95 7 62 - 56 55 7 125 - 112 111 - 110
Aggregate aggr0 (online, raid0) (zoned checksums)
Plex /aggr0/plex0 (online, normal, active)
RAID group /aggr0/plex0/rg0 (normal) 可以看见root卷占用了shelf1的bay 0-3
RAID Disk Device HA SHELF BAY CHAN Pool Type RPM Used (MB/blks) Phys (MB/blks)
--------- ------ ------------- ---- ---- ---- ----- -------------- -
-------------
data v4.16 v4 1 0 FC:B - FCAL N/A 120/246784 127/261248
data v4.17 v4 1 1 FC:B - FCAL N/A 120/246784 127/261248
data v4.18 v4 1 2 FC:B - FCAL N/A 120/246784 127/261248 1.5、怎么管理volume
1.5.1、磁盘、RG组、plex与aggr的关系
, 一个RAID 组由一块或多块数据磁盘加上一块或多块数据校验盘组成,plex 是一个或多个RG组的集
合。
, 一个aggr是一个或多个plex的集合,如果RG组做镜像了,则一个aggr包含两个plex,否则只包含
一个plex。
.
, Aggr用来管理plex和RAID组,因为这些实体只能作为aggr的一部分存在。
, 一个卷就依赖aggr,因为它是实际物理存储。
而卷是逻辑的存储实体,用来保存用户数据,卷可以通过
多种协议来进行访问。
1.5.2、volume的定义、传统volume和flexvolume(灵活卷)
Volume是保存用户数据的文件系统,它可以被DataONTAP支持的文件系统访问。
传统volume:如上图所示,传统卷包含在一个单独的专用的aggregate(物理卷)里面,连接非常紧密,如果想增加传统卷的大小,只能把一整块磁盘加到包含它的物理卷里面来实现。
traditional volumes 顾名思义,是系统开发初期采用的。
有诸多限制,例如不能减小,只能在一个aggregate中,只能通过添加整个新硬盘的容量来扩容。
从上图可以看见传统卷要包含一个RG就全部包含了。
灵活volume:DataONTAP 7之前的版本创建的卷全是传统卷,如果你升级到DataONTAP 7.0,你的volumes和数据不会被改变,你管理卷和数据的命令都仍然被支持。
灵活卷与包含它的物理卷结合的比较松散,可以创建很小的灵活卷(20M或更大),每次可以增加或减小尺寸可以是4K。
从上图可以看见灵活卷可以是某个raidgroup中盘的一部分,而不是全部。
而灵活卷可以只包含某个RG的某个部
分。
FlexVol的大小可以增加超过包含它的aggr的大小,这叫做(aggregate overcommitment).
限制:一个filer里面灵活卷和传统卷的数量是500个。
这个500是指传统卷+灵活卷。
其中传统卷和包含它的物理卷最多100个。
而灵活卷可以达到500个。
这个数值在几个资料不一致,需要再核实。
1.5.3、卷组成的层次结构
存储被组织成volume的形式,而卷是由raidgroup组成的,而raidgroup又是由磁盘组成的,这就是卷组成的层次关系。
灵活卷是在aggragate(物理卷)上划分,物理卷是由raidgroup组成,而raidgroup是由磁盘组成的。
传统卷直接在raidgroup组成,而没有将raidgroup在组成一个物理磁盘池。
而灵活卷是在物理磁盘池上划分出来的。
每个卷是个独立的文件系统,用户可以在上面保存或者检索数据。
每个netapp存储都必须有一个root volume,存储启动的时候要读取在它上面保存的数据。
一般是第一个shlef的前三块盘组成root卷,缺省是做成Raid0。
一般将磁盘划分为多个卷,而不是划分为一个很大容量的卷,这样做的好处如下:
, 在更小的卷上,备份或者恢复数据更快
, 单独的卷上的属性和options可以设置成不一样,这样管理员可以定制怎么管理它,因为可能这些卷
的作用不一样。
, 单独的卷可以临时offline了,来执行维护和管理任务,而其它卷依然可以在线,并不影响它们的数据
存取。
卷也可以自动offline。
, 如果root卷不能访问了,存储依然可以从其它volume启动并提供持续服务。
,====用这个命令可以看aggr,vol和RG组由那些磁盘组成
1.5.4、传统卷和灵活卷要考虑的问题传统卷:
如果你是升级到DataONTAP 7从以前的版本,升级程序保护你原有存在的卷全作为传统卷。
你还可以创建一个传统卷和物理卷,物理的全部传输给另一个存储。
传统卷的命名必须遵循以下规则:
, 以字母或下划杠[_]开头
, 只能包含字母、数字和[_]
, 不能超过255个字符。
灵活卷的考虑:
, Foreign volume或aggragate是从别的filer整个移过来安装到另一个filer,也就是说把这个volume包含
的磁盘整个挪到另一个存储。
NetApp推荐这种操作最好是从一个NVRAM容量小的 filer挪到一个容
量大的。
, 灵活卷空间的保证(aggr commitment) , 卷的语言种类
, 备份
, 卷克隆
采用多个卷的优势:
, 备份和恢复功能占用更少的时间。
, 可以独立为每个设置属性和options
, 可以独立将volume offline,而不影响其它volume. , 如果最原始的root 卷不可得到,系统还可以从其它卷boot。
1.5.5、root volume和/VOL
每个存储只能有一个root volume,虽然系统指派的root卷可以是改变的。
Root volume的主要作用就是启动存储。
它是唯一具有root属性的卷,而它里面的/etc目录保存的是配置信息。
它与其它vol差不多,只不过这个vol还存放ontap
的配置信息、日志、firmware等等东西。
如果愿意,你可以往vol0里面存数据,但不建议那么做。
目录名是由/vol开头的:
/vol/vol0是volume名。
/vol/user/cheryl是/vol/usr卷上的一个目录。
注意:/vol不是一个目录,它是一个特殊的虚拟root路径,存储用它来mount 其它目录。
你不能通过 Mount /vol来看其它卷,只能是mount每个卷单独的,所以一定注意/vol并不是一个根mount点。
1.5.6、数据的可靠性
数据的可靠性是NetApp存储的基础:
这里有两个功能来增加数据的可靠性:
, RAID-level checksum—增强数据保护和可靠性,checksum是由一组数据计算得来的,它和数据一起传
输,接受者会比较受到的数据和checksum如果不匹配就表明发生了数据丢失。
Data ONTAP支持两种
类型的checksums:
Zoned Checksums (ZCS)
Block Checksums (BCS)
, Multipath I/O用来提供链路的冗余,消除单点故障。
这种多链路连接保证了存储里面的每块盘都有两条路径来连接。
两条环路,目前一个环路支持最多6个磁盘柜。
从上图可以看见这个filer在slot7和slot8分别安装了双口的主机卡,磁盘柜上面也是两块卡,每块卡也是两个口,一进一出。
双口主机卡不是必须的,但使用双口卡可以节省PCI插槽。
这样连接提供了更高的可靠性。
每种连接方式和硬件平台、主机卡型号、磁盘柜型号都有关系。
上图shelf[0-2]组成一个
loop,shelf[3-5]组成一个环路。
1.5.7、aggr命令和vol命令
aggr命令与vol命令类似,除了它是在aggr上执行外。
前面已经试验了一些aggr命令。
,==将一个物理卷offline
Some aggregates are offline.
offline
aggr online aggr2
aggr options aggr2,==物理卷上的一些选项
aggr status –r 或者aggr status aggr1 –r
- 查看aggregate 或者traditional volume <atv-name>的状态
aggr status -l
vol命令用来管理传统卷和灵活卷,common volume命令针对传统卷和灵活卷全有效。
854MB
,==aggr2上可用是854M,故意在其上创建一个900M的卷
,===创建一个灵活卷
wangjuntest 502MB 396KB volume
使用了396KB
vol size wangjuntest +100m ,===扩大灵活卷的大小
,===减小灵活卷的大小
,=删除一个卷,先将其offline
vol size vol1
1.5.8、Disk scrub命令
Scrub比较raidgroup中数据盘和校验盘,必要的时候纠正校验盘里面的数据。
Aggr scrub和vol srcub要有效必须有active的校验盘,在重建校验盘、降级状态或重构的时候都不工作。
如果没有指定vol名或者aggr
名,所有物理卷或volume将被scrub。
如果物理卷或volume里面包含的有些raidgroup合格有些不符合条件,则scrub还是可以开始做,你会收到信息,就是不合格的raidgroup不会scrub。
Storage Health Monitor是一个简单的存储管理服务在系统启动的时候初始化。
在磁盘问题发生前,就会预警错误发生,可以通过SNMP、Autosupport和system log提示。
有三类信息报告分类:
Urgent(当前问题)
Non-urgent(潜在问题)
Information(普通信息)
二、优化磁盘的配置
维护数据保护和良好的性能都需要非常好的磁盘配置策略。
有以下因素需要考虑: , 传统卷还是灵活卷
, Aggregates
, 写性能
, RAID组
2.1、volume和aggr的考虑
传统卷的考虑:
建立在单独的文件系统,一块或2块校验盘,增加文件系统大小只能通过添加物理磁盘。
灵活卷的考虑:
最小可以达到20Mb
增加或减少volume的大小,可以通过增加或减少空间来实现,灵活卷被包含在aggr中。
可以进行clone。
共享校验保护和磁盘空间在aggr这个级别。
Aggregates的特点:
需要通过增加物理磁盘来实现增加空间大小。
采用多个灵活卷:
, 可以更快的进行数据访问
, 更加有效的监管
采用多个RAID组
, 可以存储更多的数据
, 好级别的数据保护防止数据丢失
2.2、可以用以下命令来分析写性能 Command Function
sysstat 显示当前的系统状态
statit 类似于stackpak出一个性能分析报告. wafl_susp Displays performance data for various system operations.
sysstat -sx 1
sysstat -c 10 -s 5
2.3、推荐的RAID组配置
, 用多个卷来组织不同的数据存储需要。
, 最好设置RAID组里面磁盘的数量为系统推荐的数量。
, 确保卷或aggr里面RAID组的容量大小差不多。
, 确保每个RAID组里面至少三块数据盘。
, 需要更高数据保护的时候,使用RAID DP. , 在文件系统或者aggr容量达到80%-90%后就需要加入RG组或磁盘。