RAID的实现实验报告

合集下载

RAID子系统分析与实现

RAID子系统分析与实现

RAID子系统分析与实现1概述本质上来讲,RAID就是模拟一个scsi磁盘,它接收上层Initiator发来的命令,然后将命令分割成更小的”子命令”,再发给具体的磁盘,等这些子命令都执行完成后,再向上层的Initiator返回执行结果。

所有的命令都是异步处理的,也就是说,从Initiator来的命令都会存放到自己的一个队列中,这样,RAID同时可以处理更多的命令而不需要Initiator层去等待,当命令完成时,会通过回调机制告诉Initiator命令的完成。

1.1 基本术语先约定以下术语一个stripe有最大限制,比如最大16块盘做一个row,那么当创建一个32块盘的raid 时,就会分成两个row。

下图描述前面介绍的这些概念1.2 RAID命令处理RAID对命令的处理都是按照stripe来处理的,stripe再拆分成stripeUnit发给磁盘处理。

下面以5个磁盘组成的RAID0为例,假设stripeUnit大小为20h。

现在要从AF4h开始的地方读取154h个块,那么StripeSizeInBlocks = StripeUnitSizeInBlocks*NumDisks=20h*5=A0hStartStripe = StartBlock / StripeSizeInBlocks = AF4h / A0h = 11hStartOffset = StartBlock % StripeUnitSizeInBlocks = AF4h % 20h = 14h 那么,起始地址在disk2上的开始地址就是StartBlock(disk2) = 20h * 11h + 14h = 234h需要在disk2上访问的块个数为NumBlocks (disk2) = 20h – 14h = Ch即向disk2 发出一个scsi命令,开始地址为234h,大小为Ch个块。

1.3 RAID5处理方式在对RAID5的校验方式上通常存在着不同的格式,我们采取的是称作“右循环异步”的方式。

实验四 磁盘阵列实验

实验四 磁盘阵列实验

实验四磁盘阵列●实验目的通过磁盘阵列的配置,达到通过实践去学习网络存储技术中磁盘阵列RAID0、RAID1、RAID5标准的相关知识。

●实验要求要求各位同学在理解存储技术中磁盘阵列相关基础知识后能够独立动手完成此实验●实验原理介绍RAID:廉价冗余磁盘阵列,是Redundant Arrays of Independent Disks的简称,是在阵列控制器(软件或阵列卡硬件)的管理下,将多个磁盘集成到一起,形成一个整体存储系统的技术。

磁盘阵列可以分为软阵列和硬阵列两种。

软阵列就是通过软件程序来完成,要由计算机的CPU提供控制和运算能力,只能提供最基本的RAID容错功能。

而硬阵列是由独立操作的硬件(如磁盘阵列卡)提供整个磁盘阵列的控制和计算功能,卡上具备独立的处理器,不占用系统的CPU资源,所有需要的容错机制均可以支持,所以现实当中硬阵列所提供的功能和性能均比软阵列好。

作为高性能的存储技术,RAID的级别已经发展了很多种,但大多都是基于最常用的0、1、3、5四个级别(其他的RAID级别请各位实验完毕参考教材进行自学),本次重点介绍这四个级别。

RAID 0:是将多个磁盘(至少2个硬盘)并列起来,形成一个大的硬盘,不具有冗余功能,执行并行I/O读写,速度最快。

RAID0总容量=(磁盘数量)*(成员的磁盘容量)在存放数据时,其首先将数据按磁盘的个数来进行分段,然后同时将这些数据并行写进这些磁盘中。

如果发挥一下想象力,你就会觉得数据像一条带子一样横跨过所有的阵列磁盘,所以RAID0 又叫条带磁盘阵列目前在所有的RAID级别中,RAID 0的读写速度是最快的,但其没有任何冗余功能,即如果有一个磁盘(物理)损坏,则所有的数据都无法使用。

RAID1:两组相同的磁盘(至少2个硬盘)互作镜像,以镜像作为冗余手段,读写速度没有提高,但是可靠性最高,100%的数据冗余,它是在追求最高的安全性的基础上牺牲了大部分的性能,RAID 1就是镜像,其原理为在主硬盘上存放数据的同时也会在镜像硬盘上拷贝写入一份同样的数据。

raid卡测试报告

raid卡测试报告

研发部测试报告 raid卡功能测试验证文件编号:201912021517产品名称: RAID卡检验类别:研发测试受控状态:受控测试人:测试时间:2019/11/29 -2019/12/03测试地点:研发测试室测试产品:RAID 卡测试数量: 2测试型号及供应商: 9260-8I (SN:SV43882489)、9271-8I(SN:SK73972352)测试项目:质量及性能测试测试依据: 《产品配件入厂检验规范》《产品通用技术要求及交收检验规范》GB/T9813-2000《微型计算机通用规范》一、测试环境二、测试工具restart.sh、restart_write.sh、zftesthdspeed、zftesthdspeedwrite、a.txt、Burnin Test for Linux三、外观检查9260-8I:整体外观无脏污、破损、撞件9271-8I:整体外观无脏污;C2B11电容掉件、C416电容附近变色C2B11掉件:局部变色:整体外观:四、功能测试9271-8I :使用三块硬盘做Raid5;Raid 设置配置为write through 无cache ;安装系统到raid 硬盘组后安装Testhdspeed 、burnin test 进行raid 硬盘组的速度及稳定性测试,测试时间12H读取速度:写入速度:9260-8i:在启动界面及BIOS界面均识别不到raid卡,卡上报警红灯常亮。

五、测试结论9271-8i卡有掉件及过热局部变色现象;I/O速度测试正常,压力12H后稳定无死机、重启现象,此板卡功能性、稳定性均正常,可以正常使用。

9260-8i卡外观无损坏,在超微、Intel、华硕平台均识别不到,为个例不良品。

RHCA课程实验记录——RH436 高级的RAID管理

RHCA课程实验记录——RH436 高级的RAID管理

实验环境:Domain: IP: 192.168.2.0/24Server: FQDN: IP:192.168.2.254 Provide:DNS、DHCP、FTP,etc. Station1:FQDN: IP:192.168.2.1共有9块硬盘,sda 10GB为系统磁盘,sdb~sdi各1G,进行RAID实验。

如下图:对其分区(此步骤可省略)结果如下图:Station2:FQDN: IP:192.168.2.2下面的部分实验将会把Station1的RAID硬盘迁移到Station2中组装。

实验一:本地的RAID组装描述:在/etc/mdadm.conf文件损坏或丢失的情况下,并已知原raid的类型及所组成的硬盘名,来进行组装,使其正常运行。

步骤:1st: 首先创建一个RAID5.将sdb1,sdc1,scd1,sdf1组装一个包含一个热备盘的RAID5。

2ed: 使用命令查看RAID的状态。

3rd:生成/etc/mdadm.conf文件。

4th:手动停掉md0,再尝试启动。

成功启动。

5th:再次停掉md0,并将/etc/mdadm.conf改名,尝试启动6th:无法启动,因为已知RAID名为md0,且组成的硬盘为sdb1,sdc1,scd1,sdf1故可进行重新组装。

如下图:查看状态实验成功。

实验二:事件通知。

描述:当RAID出现问题时,发送邮件给指定帐户,这里我们将实验1中的RAID5损坏一块硬盘进行测试。

步骤:1st: 将邮件通知的命令写入/etc/mdadm.conf2ed:强制损坏/dev/sdc1实验成功。

如果RAID没有损坏,也可以测试邮件通知是否成功。

如下图:实验三:在线拉伸RAID。

描述:通常在实际生产环境中,随着数据量的不断增加,原有的RAID设备空间不足,所以要进行扩展,而又要保证服务器的正常运行,所以要在不中断服务器运行的情况下对RAID设备进行在线的拉伸。

同样在实验一的环境下进行,将该RAID5的大小由2GB扩大到3GB。

网络存储实验报告

网络存储实验报告

湖北文理学院《网络存储》实验报告专业班级:计科1211姓名:***学号:***任课教师:李学峰2014年11月16日实验01 Windows 2003的磁盘阵列技术一、实验目的1.掌握在Windows 2003环境下做磁盘阵列的条件和方法。

2.掌握在Windows 2003环境下实现RAID0的方法。

3. 掌握在Windows 2003环境下实现RAID1的方法。

4. 掌握在Windows 2003环境下实现RAID5的方法。

5. 掌握在Windows 2003环境下实现恢复磁盘阵列数据的方法。

二、实验要求1.在Windows 2003环境下实现RAID02.在Windows 2003环境下实现RAID13.在Windows 2003环境下实现RAID54.在Windows 2003环境下实现恢复磁盘阵列数据三、实验原理(一)磁盘阵列RAID技术的概述RAID是一种磁盘容错技术,由两块以上的硬盘构成冗余,当某一块硬盘出现物理损坏时,换一块同型号的硬盘即可自行恢复数据。

RAID有RAID0、RAID1、RAID5等。

RAID 技术是要有硬件来支持的,即常说的RAID卡,如果没RAID卡或RAID芯片,还想做RAID,那就要使用软件RAID技术,微软Windows系统只有服务器版本才支持软件RAID技术,如Windows Server 2003等。

(二)带区卷(RAID0)带区卷是将多个(2-32个)物理磁盘上的容量相同的空余空间组合成一个卷。

需要注意的是,带区卷中的所有成员,其容量必须相同,而且是来自不同的物理磁盘。

带区卷是Windows 2003所有磁盘管理功能中,运行速度最快的卷,但带区卷不具有扩展容量的功能。

它在保存数据时将所有的数据按照64KB分成一块,这些大小为64KB的数据块被分散存放于组成带区卷的各个硬盘中。

(三)镜像卷(RAID1)镜像卷是单一卷的两份相同的拷贝,每一份在一个硬盘上。

数据队列实验报告总结(3篇)

数据队列实验报告总结(3篇)

第1篇一、实验背景数据结构是计算机科学中一个重要的基础学科,其中队列作为一种常用的数据结构,在计算机科学和实际应用中具有广泛的应用。

队列是一种先进先出(FIFO)的线性表,它允许在表的一端进行插入操作,在另一端进行删除操作。

本实验旨在通过实现队列的基本操作,加深对队列数据结构概念和特性的理解,并掌握其在实际应用中的运用。

二、实验目的1. 理解队列数据结构的概念和特性。

2. 掌握队列的存储结构,包括顺序存储和链式存储。

3. 熟悉队列的基本操作,如入队、出队、队列长度、队列状态判断等。

4. 通过实际编程,提高数据结构应用能力。

三、实验内容1. 队列的顺序存储结构实现:- 定义队列结构体,包含队列长度、队列最大长度、队列首尾指针等。

- 实现队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。

2. 队列的链式存储结构实现:- 定义队列节点结构体,包含队列数据、指针等。

- 实现队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。

3. 队列的实际应用:- 使用队列实现广度优先搜索(BFS)算法。

- 使用队列实现单链表反转。

- 使用队列实现表达式求值。

四、实验步骤1. 创建队列结构体,定义队列的基本属性和操作函数。

2. 实现队列的顺序存储结构,包括队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。

3. 实现队列的链式存储结构,包括队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作。

4. 通过实际编程,验证队列的基本操作是否正确。

5. 使用队列实现实际应用,验证队列在解决问题中的应用价值。

五、实验结果与分析1. 顺序存储结构实现:- 队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作均能正常进行。

- 队列的顺序存储结构在插入和删除操作时,需要移动队列中的元素,因此时间复杂度为O(n)。

2. 链式存储结构实现:- 队列的初始化、入队、出队、判断队列是否为空、判断队列是否已满等操作均能正常进行。

RAID实验的结果分析和实验未完成事项以及收获和感想

RAID实验的结果分析和实验未完成事项以及收获和感想

RAID实验的结果分析和实验未完成事项以及收获和感想通过以上实验的理论依据和实际操作,我们在团队的配合和努力下,顺利的完成了Matrix RAID的安装,并通过以上数据和图表记录的信息,得到了以下几点结论:1.BIOS的设置至关重要,首先把磁盘设置成为Matrix RAID格式,才可进行下面的实验。

2.Windows XP安装盘上必须有RAID驱动程序,否则无法安装。

在确保以上前提下,我们最终得到了以下数据在windows XPprofessional安装程序启动后,程序先开始格式化,然后系统将进行大约15分钟的格式化过程,完成该过程后,便是系统的安装读取过程,该过程中我们组做的比较顺利,该过程之后,便是xp系统的正式安装,如图1-2所示,在五步中,系统的安装花时间较长,约10分钟左右,之后,完成者五步便完成了基本的安装,下面需要对xp系统进行优化。

完成一系列的安装之后,重启电脑,便可以顺利的进入xp系统。

之后需要对RAID进行测试,测试结果如图1-3 1-4所示测试一从图中的数据中,我们可以看出,随机访问是11.9ms,CPU的占用率是0%,平均读盘速度是111.1MB/s,突发传输速度是227.2MB/s。

与普通的想比较我们可以看到,平均读盘比普通高56MB/S.超出一倍。

突发速度比普通高99MB/s,超出88%左右。

可以明显的看出,该模式优于普通模式。

测试二从该表我们可以看到,随机访问的时间是15.4ms,平均传输是55.3MB/s突发传输速度是128.6MB/s。

测试三从该图中我们可以看出,平均读取时间17ms cpu使用率o%,平均读取速度65.9MB/s,突发速度为136.5Mb/s。

比普通的大2mb/s。

可见效果佳于普通。

以上几组测试都说明了RAID模式下的优越性。

可以明显的感觉到速度的提升。

完成该实验重要点在于1、BIOS设置2、Intel Matrix Storage Manager Option ROM设置3、盘上是否有RAID驱动程序4、Matrix RAID 性能测试实验需要团队的配合和分工,也需要很好的耐心和信心。

虚拟化存储实验报告

虚拟化存储实验报告

数据中心存储服务器虚拟化存储设计实验报告实验名称:数据中心存储服务器虚拟化存储设计
实验目的:通过自己动手设计搭建一独立小型存储服务器,采用多种存储技术软硬件搭配,实现对数据的存储、管理与使用。

掌握RAID技术以及存储虚拟化技术并对存储服务器在军事领域的安全可靠性方面进行改进。

实验内容:
一、采用不同的RAID阵列,测试其对存储服务器性能的影
响;
二、在服务器客户端中安装使用存储虚拟化管理软件,掌握
存储虚拟化在存储空间的分配管理以及客户的使用权限方面的解决方案;
三、对本存储服务器进行性能改进,主要包括:
(一)可靠性:数据备份方案、灾难恢复方案;
(二)安全性:数据读写保护权限的管理、、磁盘防插拔方案;
实验仪器:计算机、磁盘、RAID卡、虚拟化存储磁盘管理软件、服务器端。

实验步骤:
一、完成对存储服务器的搭建以及管理软件的安装;
二、使用虚拟化存储方式,多台计算机与服务器进行网络连
接并对服务器发出存储空间申请,服务器对其进行存储空间以及
权限的分配与管理;
三、对磁盘阵列进行多种RAID搭建方式,并在服务器端与客户计算机端上进行数据的传输存储与数据备份速度的测试;
四、在存储服务器端观察服务器对客户机逻辑存储空间与物理存储空间的分配情况,进行存储虚拟化下服务器负荷能力测试;
五、在客户端计算机上进行化测试,主要包括:数据传输速度、数据访问与改动权限测试;
六、对存储服务器在数据的可靠安全性方面进行测试,主要进行:数据备份方式、模拟数据灾难并进行恢复、入侵拦截、防恶意插拔等安全测试。

七、通过以上的实验,提出对存储服务器的改进建议,尤其在数据的可靠安全性方面进行改进并再次进行测试。

indows VM中RAID5的创建实训报告

indows VM中RAID5的创建实训报告

indows VM中RAID5的创建实训报告一、【实验目的】(1)学会在windows和Linux环境下构建软件RAID环境,并且实现RAID1和RAID5。

(2)比较理解RAID1和RAID5的异同,深刻掌握不同RAID的性能比较。

二、【实验设备】Windows Server2016系统、Linux三、【实验要求】学会在Windows server系统下创建RAID环境,掌握用命令行在Linux系统下创建RAID环境。

四、【实验步骤】(一)在Windows server系统下创建RAID环境,并实现RAID1和RAID5。

首先建立五个5g的磁盘。

打开虚拟机设置。

硬件——设备——硬盘——添加选择SCSI。

创建新虚拟磁盘。

磁盘大小设为5g,选择将虚拟磁盘存储为单个文件。

选择一个合适的地方存储,命名为experience Windows Server 2016-0这样就完成了一个磁盘的建立,接下来再按照上述方法创建四个。

打开磁盘管理,发现这五个磁盘属于脱机状态。

右键——联机再次右键——初始化磁盘。

这时就可以建立卷了。

除了这样直接用之外,还可以输入命令让磁盘脱机和清除磁盘属性。

打开cmd,进入diskpart界面,list disk 表示查看磁盘状态,select disk 2表示选择磁盘2进行操作,online disk表示使磁盘2联机,attr disk clear readonly表示删除磁盘属性。

这样设置完再进入磁盘管理,会自动弹出弹窗,让你进行初始化。

我们直接点击确认即可。

右键选择磁盘0——新建镜像卷。

(要注意此时要有两个已经初始化好的磁盘才可以建立镜像卷,因为RAID 1最少要两个磁盘。

从左边再选择一个磁盘,这样右边就有两个,符合建立RAID1的标准。

随便选一个磁盘驱动器号。

命名为RAID1,并且勾选快速格式化。

成功创建。

接下来创建RAID5,首先要有三个初始化好的磁盘,因为RAID5的建立至少要3个磁盘。

Linux下RAID实验

Linux下RAID实验

Linux下RAID实验【实验环境】Linux实验台【实验内容】创建RAID 0和RAID 1创建RAID 5并测试其有效性【实验原理】一、Linux下的RAIDLinux系统在安装的过程中就可以使用RAID。

在使用当中,利用一些工具,可以实现比Windows还要强大得多的功能,比如RAID 0+1和RAID 0+5。

在Linux下既可以对整块硬盘做RAID,也可以对其某一个分区做RAID。

Linux下常用来做软RAID的工具主要有两个:一个是mdadm,另一个是raidtools。

在本实验中我们选用了mdadm。

在Linux下利用mdadm为非启动盘做软RAID比较简单。

在实验步骤中,分别给出了Linux 下RAID 0、RAID 1和RAID 5的制作过程,希望学生根据RAID 0+1的原理和提示,自己完成RAID 0+1和RAID 0+5的制作。

与Windows不同,Linux的主硬盘(系统所在硬盘)也支持软RAID 1,但相对非主硬盘来说制作过程要复杂得多。

它不但要详细设置mdadm,还要设置启动管理器GRUB。

在制作过程中还要将主硬盘上的内容完全复制到它的镜像盘,时间较长。

二、mdadm说明(一)m dadm的7种主要操作方式(1)create创建一个带超级块的磁盘阵列。

(2)assemble将之前建立的磁盘阵列变为活跃的(active)。

(3)build用于创建没有超级块的磁盘阵列。

(4)manage用于对在一个磁盘阵列上的一个或多个设备做一些操作,如添加(add)、移除(remove)和使失败(fail),还包括以下功能:run/stop/readonly/readwrite。

(5)misc用于对单个设备的操作,它们可能是磁盘阵列的几部分,所以是零超级块,检测可能是适当的。

它们可能是md阵列,因此run,stop,rw,ro,detail这些操作也是可以的。

(6)monitor查看磁盘阵列并显示改变。

RAID 实验

RAID 实验

实验五RAID 5实验一、实验目的使用存储设备实现硬盘的RAID 5 功能二、背景描述某学校存储设备中有多块硬盘,为了保证数据的安全,提高硬盘读写性能,决定把所有磁盘做RAID 5三、需求分析需求1:解决硬盘损坏造成的数据丢失问题分析1:因为硬盘一旦损坏,没有保护的话,所有数据就会丢失,为了解决这个问题,我们把所有磁盘做成有容错功能的磁盘阵列。

需求2:解决单个硬盘读写速度有限的问题。

分析2:因为单个硬盘的读写速度有限,应用大的时候会造成系统的瓶颈,所以做RAID 后,各个磁盘之间是并行读写,大大增加速度。

四、实验设备RG-iS-LAB 1台直连线1条PC 1台五、预备知识网络存储基础知识,RAID技术原理、iSCSI技术六、实验原理RAID 的英文全称为Redundant Array of Independent Disks。

中文名称是独立磁盘冗余阵列。

RAID 技术的初衷主要是为了大型服务器提供高端的存储功能和冗余的数据安全。

在系统中,RAID被看作是一个逻辑分区,但是它是由多个硬盘组成的(最少两块)。

它通过在多个硬盘上同时存储和读取数据来大幅提高存储系统的数据吞吐量(Throughput),而且在很多RAID模式中都有较为完备的相互校验/恢复的措施,甚至是直接相互的镜像备份,从而大大提高了RAID系统的容错度,提高了系统的稳定冗余性,这也是Redundant一词的由来。

常见的级别有RAID0、RAID1、RAID3、RAID5、RAID6、RAID0+1、RAID10、RAID50等。

RAID5 是向阵列中的磁盘写数据,将数据段的奇偶校验数据交互存放于各个硬盘上。

任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据。

RAID 5一个阵列中至少需要三个物理驱动器,硬盘的利用率为n-1/n。

性价比最高,如图5-1所示RAID 5 磁盘阵列+。

七、实验步骤可以直接使用RG-iS-LAB中的硬盘进行RAID,也可以在RG-iS-LAB上划分几块存储空间给PC,用PC来实现,空间划分方法见《IP SAN实验》。

Linux实训-实现磁盘阵列RAID5

Linux实训-实现磁盘阵列RAID5
2.查看当前系统识别到的磁盘设备
#cat /proc/partitions查看当前系统识别到的磁盘设备
3.用fdisk命令初始化三块新硬盘,设置如下图所示:
4.RAID5磁盘阵列的硬盘使用情况.如下图所示:
#fdisk–l
5.开始创建磁盘阵列
# mdadm --creat /dev/md0 --level=5 --raid-devices=3 /dev/sd{c,d,e}1
云南xx学院信息工程学院
xxxx课程xxxx实训项目实训报告表
学号
姓名
班级
实训性质
①设计性实训 ②综合性实训
实训时间
实训地点
实训主要设备
实训内容
实训内容及步骤、结果记录
(写出每个命令执行时,所显示的内容用截图,每个步骤用序号注明,位置太小用回车增加空间)
Linux 实现磁盘阵列RAID5
1.在VM中新建了三块200M的硬盘.用于实验.如下图所示:
#ll /mnt/raid5x
实训小结
任课教师评价: 优秀 良好 中等 及格 不及格
教师签字(签章):
年月日
6.为新建的/dev/md0建立类型为ext3的文件系统
#mkfs–t ext3–c /dev/md0
7ห้องสมุดไป่ตู้查看创建效果
#mdadm --detail /dev/md0
8.下面新建目录.
#mkdir /mnt/raid5x
#mount /dev/md0 /mnt/raid5x
9.拷贝文件到磁盘阵列
#cp任意文件/mnt/raid5x

RAID1+LVM实验

RAID1+LVM实验

RAID1+LVM实验目录一、LVM基本术语 (2)二、创建Raid1+LVM系统 (4)1. 硬盘创建Raid分区 (4)2. 分别创建RAID1级别设备 (5)3. 创建基于LVM的逻辑磁盘分区结构 (7)4. 最终划分好的系统分区结构 (9)三、安装LVM (10)四、创建和管理LVM (11)1、创建LVM类型分区 (11)2、创建物理卷PV (14)3、创建卷组VG (15)4、创建逻辑卷 (17)5、格式化 (19)6、挂载LVM (19)五、扩展卷组大小 (20)六、从卷组中删除物理卷 (24)七、扩展逻辑卷的大小 (24)八、删除LVM (26)一、LVM基本术语LVM是在磁盘分区和文件系统之间添加的一个逻辑层,来为文件系统屏蔽下层磁盘分区布局,提供一个抽象的盘卷,在盘卷上建立文件系统。

管理员利用LVM 可以在磁盘不用重新分区的情况下动态调整文件系统的大小,并且利用LVM管理的文件系统可以跨越磁盘,当服务器添加了新的磁盘后,管理员不必将原有的文件移动到新的磁盘上,而是通过LVM可以直接扩展文件系统跨越磁盘。

首先讨论以下几个LVM术语:物理存储介质(The physical media)这里指系统的存储设备:硬盘,如:/dev/hda、/dev/sda等等,是存储系统最低层的存储单元。

●物理卷(physical volume)物理卷就是指硬盘分区或从逻辑上与磁盘分区具有同样功能的设备(如RAID),是LVM的基本存储逻辑块,但和基本的物理存储介质(如分区、磁盘等)比较,却包含有与LVM相关的管理参数●卷组(Volume Group)LVM卷组类似于非LVM系统中的物理硬盘,其由物理卷组成。

可以在卷组上创建一个或多个“LVM分区”(逻辑卷),LVM卷组由一个或多个物理卷组成。

●逻辑卷(logical volume)LVM的逻辑卷类似于非LVM系统中的硬盘分区,在逻辑卷之上可以建立文件系统(比如/home或者/usr等)。

实现RAID0、1、5 实验报告

实现RAID0、1、5 实验报告

实现RAID0、1、5 实验报告班级:10网工三班学生姓名:谢昊天学号:1215134046实验目的:1.掌握软RAID的配置方法。

2.掌握RAID0、1、5的配置过程。

3.掌握RAID1、5数据恢复方法。

实验要求:1.实验中仔细观察、记录、比较实验结果,如果不一致应找出原因。

2.实验中凡是需要命名的地方,均以自己名字的全拼来命名,可以用不同后缀来区分。

如张三的两台服务器可以命名为:zhangsanS1,zhangsanS2。

实验内容:1、在VMware中创建一台Windows Server。

2、将该Server添加3块虚拟磁盘。

3、格式化新添加的3块磁盘。

4、在新磁盘上分别配置RAID0 、1、5,对应驱动器号分别为E、F、G。

5、在以上三个卷中分别建立不同的文件。

6、关闭Server,去掉所添加硬盘中的第一块。

7、开启Server,查看E、F、G还能否访问。

8、关闭Server,重新添加一块新磁盘,并使用其恢复RAID1和RAID5。

实验步骤与实验过程:1、首先在VMware中创建出一台Windows Server,将Server添加3块虚拟磁盘,然后打开虚拟机格式化添加的3块磁盘,在新磁盘上分别配置为RAID0 、1、5,对应驱动器号分别为E、F、G,并在以上三个卷中分别建立出不同的文件。

2、关闭Server,去掉添加硬盘中的第一块,开启Server,查看E、F、G是否还能否访问。

3、关闭Server,重新添加一块新的磁盘,并恢复RAID1和RAID5。

实验结果:1、配置了成功RAID0、1、5,并将名为Inetpub、Program Files、web的三个文件分别加入到E、F、G三个磁盘。

2、去掉所添加硬盘中的第一块后,打开虚拟机后只剩下新建的F盘,并且可以访问F盘的文件Program Files3、去掉所添加硬盘中的第一块后,E、F、G在磁盘管理中都显示失败,修复磁盘RAID1、5后显示状态良好,并且可以访问F、G盘的文件Program Files、web。

计算机系统结构实验报告-存储系统RAID 性能测试

计算机系统结构实验报告-存储系统RAID 性能测试

计算机系统结构实验报告班级:xxxxxxxxxxxxxxxx 姓名:xxxxxx 学号:2xxxxxxxxxxxxxx 报告完成时间:20xxxxxxxx计算机系统结构实验报告班级xxxxxxx 实验日期xxxxxxxxx 实验成绩姓名xxxxxxxxxx 学号xxxxxxxxxxxx实验名称存储系统RAID 性能测试实验目的、要求及器材实验目的与要求:①掌握RAID0-5的基本组织方式和特点②RAID0,1,5配置与简单测试;③探究RAID的小写性能或参数敏感性实验器材:虚拟LINUX环境Ubuntu;d isksim-4.0;计算机一台。

实验内容、步骤及结果1.编译Disksim①通过邮件将disksim-4.0.tar.gz和ssd-add-on.zip传送至Ubuntu。

②Tar -vxzf disksim-4.0.tar.gz③在disksim-4.0中编译 make④Unzip ../ssd-add-on.zip⑤patch -p1 < ssdmodel/ssd-patch⑥在Ssdmodel中make⑦进入valid,chmod a+x runvalidOK now!在disksim-4.0中的valid或者ssdmodel/valid 中执行./runvalid即可得到所有文件的测试结果2.修改parv内logorg,模拟RAID0有效盘数设为5Raid0.parv中参数设置如下# component instantiationinstantiate [ statfoo ] as Statsinstantiate [ ctlr0 .. ctlr4 ] as CTLR0instantiate [ bus0 ] as BUS0instantiate [ disk0 .. disk4 ] as HP_C3323Ainstantiate [ driver0 ] as DRIVER0instantiate [ bus1 .. bus5 ] as BUS1# end of component instantiation# system topology[设为5个盘并行的拓扑结构]设置冗余模式、编址模式、分配策略等:disksim_logorg org0 {Addressing mode = Array,Distribution scheme = Striped,Redundancy scheme = Noredun,devices = [ disk0 .. disk4 ],Stripe unit = 64,……}设置随机概率Probability of sequential access = 0.2,Probability of local access = 0.4,Probability of read access = 0.66,Probability of time-critical request = 0.1,Probability of time-limited request = 0.3,存储器总容量为Storage capacity per device = 2056008*5 = 10280040,接下来便可进行虚拟测试../src/disksim raid0.parv raid0.txt ascii 0 1打开raid0.txt查看测试结果:Overall I/O System Total Requests handled: 10002Overall I/O System Requests per second: 100.928186Overall I/O System Completely idle time: 11953.034363 0.120616Overall I/O System Response time average: 24.486686Overall I/O System Response time std.dev.: 13.542895Overall I/O System Response time maximum: 137.672973Overall I/O System Response time distribution< 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 196 332 3551 4960 690 220 44 9 0 0可见raid0 组织模式的I/O系统平均响应时间为24.486686 ms3.修改parv内logorg,模拟RAID1有效盘数设为4Raid1.parv中参数设置如下# component instantiationinstantiate [ statfoo ] as Statsinstantiate [ ctlr0 .. ctlr7 ] as CTLR0instantiate [ bus0 ] as BUS0instantiate [ disk0 .. disk7 ] as HP_C3323Ainstantiate [ driver0 ] as DRIVER0instantiate [ bus1 .. bus8 ] as BUS1# end of component instantiation# system topology[设为8个盘并行的拓扑结构]冗余模式设为Redundancy scheme = Shadowed,存储容量 Storage capacity per device = 8224032,其余设置同raid0接下来进行虚拟测试../src/disksim raid1.parv raid1.txt ascii 0 1打开raid1.txt查看测试结果:OVERALL I/O SYSTEM STATISTICS-----------------------------Overall I/O System Total Requests handled: 9999Overall I/O System Requests per second: 100.452735Overall I/O System Completely idle time: 12533.813298 0.125918Overall I/O System Response time average: 23.141863Overall I/O System Response time std.dev.: 11.234684Overall I/O System Response time maximum: 136.662648Overall I/O System Response time distribution< 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 185 255 3912 4958 553 114 21 1 0 0可见raid1 组织模式的I/O系统平均响应时间为23.141863 ms4.修改parv内logorg,模拟RAID5有效盘数设为4Raid0.parv中参数设置如下# component instantiationinstantiate [ statfoo ] as Statsinstantiate [ ctlr0 .. ctlr4 ] as CTLR0instantiate [ bus0 ] as BUS0instantiate [ disk0 .. disk4 ] as HP_C3323Ainstantiate [ driver0 ] as DRIVER0instantiate [ bus1 .. bus5 ] as BUS1# end of component instantiation# system topology[设为5个盘并行的拓扑结构]冗余模式设为Redundancy scheme = Parity_rotated,存储容量 Storage capacity per device = 8224032,其余设置同raid0接下来进行虚拟测试../src/disksim raid5.parv raid5.txt ascii 0 1打开raid5.txt查看测试结果:OVERALL I/O SYSTEM STATISTICS-----------------------------Overall I/O System Total Requests handled: 10001Overall I/O System Requests per second: 100.494066Overall I/O System Completely idle time: 6.907489 0.000069Overall I/O System Response time average: 56.222291Overall I/O System Response time std.dev.: 49.033242Overall I/O System Response time maximum: 480.847859Overall I/O System Response time distribution< 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 109 164 1496 3273 1722 1503 752 439 324 219可见raid5 组织模式的I/O系统平均响应时间为56.222291 ms5.探究性试验设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性参数包括盘数,条带大小敏感性指,给定负载,其性能是否会随着参数变化而剧烈变化本实验采用ssdmodel执行,期间同时加载了<tracefile> 和<synthgen>发现得到的结果反而相差不大,所以后来只加载了ssd-postmark-aligned2.trace。

虚拟存储器实验报告

虚拟存储器实验报告

虚拟存储器实验报告一、实验目的本次虚拟存储器实验的目的在于深入理解虚拟存储器的工作原理,掌握其基本概念和关键技术,通过实际操作和观察,分析虚拟存储器对系统性能的影响,并能够运用所学知识解决在实验过程中遇到的问题。

二、实验环境本次实验使用的操作系统为 Windows 10,开发工具为 Visual Studio 2019,编程语言为 C++。

实验所使用的计算机配置为:Intel Core i7 处理器,16GB 内存,512GB 固态硬盘。

三、实验原理虚拟存储器是一种利用硬盘等辅助存储器来扩充主存容量的技术。

它将程序的逻辑地址空间与物理地址空间分开,使得程序可以使用比实际物理内存更大的地址空间。

当程序访问的地址不在物理内存中时,系统会通过页面置换算法将暂时不用的页面换出到硬盘,将需要的页面换入到物理内存中。

虚拟存储器的实现主要依赖于页式存储管理和地址转换机制。

页式存储管理将逻辑地址空间划分为固定大小的页面,物理地址空间也划分为相同大小的页框。

地址转换通过页表来完成,页表记录了逻辑页面与物理页框的对应关系。

四、实验内容1、页面置换算法的实现首先实现了先进先出(FIFO)页面置换算法。

创建一个固定大小的物理内存页框数组,模拟物理内存。

当需要装入新页面时,如果物理内存已满,按照先进入的页面先被置换的原则选择置换页面。

接着实现了最近最少使用(LRU)页面置换算法。

为每个页面设置一个访问时间戳,当需要置换页面时,选择访问时间最久远的页面进行置换。

2、虚拟地址到物理地址的转换设计了一个简单的页表结构,包括逻辑页号、物理页框号和有效位等字段。

输入一个虚拟地址,通过查找页表将其转换为物理地址。

如果页面不在物理内存中,触发页面置换算法进行页面调入。

3、性能分析对不同大小的程序和不同的页面置换算法,测量其页面缺失率和执行时间。

分析页面大小、物理内存大小等因素对虚拟存储器性能的影响。

五、实验步骤1、初始化实验环境设定物理内存大小、页面大小等参数。

磁盘寻道实验报告(3篇)

磁盘寻道实验报告(3篇)

第1篇一、实验目的1. 理解磁盘的工作原理和结构,了解磁盘寻道的基本概念。

2. 掌握常用的磁盘寻道算法,如先来先服务(FCFS)、最短寻道时间优先(SSTF)、SCAN和循环SCAN算法。

3. 比较不同磁盘寻道算法的性能,分析其优缺点。

4. 提高对操作系统磁盘管理模块的理解。

二、实验内容1. 磁盘结构及工作原理2. 磁盘寻道算法a. 先来先服务(FCFS)算法b. 最短寻道时间优先(SSTF)算法c. SCAN算法d. 循环SCAN算法3. 实验数据及结果分析三、实验步骤1. 磁盘结构及工作原理(1)观察实验所提供的磁盘,了解其结构及工作原理。

(2)记录磁盘的转速、平均寻道时间、磁盘传输速率等参数。

2. 磁盘寻道算法(1)编写程序模拟FCFS算法,输入一组磁盘请求,输出磁头移动轨迹及磁头移动距离。

(2)编写程序模拟SSTF算法,输入一组磁盘请求,输出磁头移动轨迹及磁头移动距离。

(3)编写程序模拟SCAN算法,输入一组磁盘请求,输出磁头移动轨迹及磁头移动距离。

(4)编写程序模拟循环SCAN算法,输入一组磁盘请求,输出磁头移动轨迹及磁头移动距离。

3. 实验数据及结果分析(1)收集实验数据,包括不同磁盘寻道算法的磁头移动轨迹及磁头移动距离。

(2)比较不同磁盘寻道算法的性能,分析其优缺点。

(3)根据实验结果,得出结论。

四、实验结果与分析1. FCFS算法FCFS算法是一种简单的磁盘寻道算法,按照请求顺序服务磁盘请求。

该算法的优点是实现简单,缺点是效率较低,容易产生“饥饿现象”。

2. SSTF算法SSTF算法优先处理距离磁头最近的磁盘请求,以减少磁头移动距离。

该算法的优点是寻道时间较短,缺点是可能会造成某些请求长时间得不到服务。

3. SCAN算法SCAN算法按照磁道顺序移动磁头,当磁头到达磁盘的另一端时,反向移动。

该算法的优点是寻道时间较短,且公平性较好,缺点是可能会产生“振荡现象”。

4. 循环SCAN算法循环SCAN算法是SCAN算法的一种改进,当磁头到达磁盘的另一端时,不再反向移动,而是继续按照磁道顺序移动。

raid 5实验报告

raid 5实验报告
mdadm –Ds(查看uuid)
vim /etc/fstab
984f686f-de64ef2b-8fca37e2-89a727c0/mntext4defaults0 0
mount–a(挂载设备)
df -hቤተ መጻሕፍቲ ባይዱ
mdadm -Ds > /etc/mdadm.conf
测试:
mdadm /dev/md0 -f /dev/sdd(破坏磁盘sdd)
7.编辑fstab文件使raid 5设备可以自动挂载。
8.挂载raid 5设备。
9.创建mdamd.conf文件。
二、测试raid 5设备。
1.使磁盘sdd坏掉,磁盘sde自动顶替磁盘sdd。
2.移除磁盘sdd。
3.添加磁盘sdf为备用磁盘。
4.这时再查看设备详细信息,已经没有磁盘sdd,但仍能正常工作。
数据记录和计算
创建:
lsblk
cat /proc/mdstat (查看现有设备)
mdadm -C /dev/md0 -l5 -n3 /dev/sd{b,c,d} -x1 /dev/sde(创建raid 5)
mdadm -D /dev/md0(查看详细信息)
mkfs.ext4 /dev/md0(格式化)
mdadm /dev/md0 -r /dev/sdd(移除磁盘sdd)
mdadm /dev/md0 -a /dev/sdf(添加磁盘sdf)
mdadm -D /dev/md0(查看设备详细信息)
结论
(结果)
Raid 5设备安装测试成功。
小结
Raid 5设备比较稳定,使用与大部分情况,学会安装raid 5是非常有必要的。
实验报告
实验名称

实验5-RAID实验-实验报告

实验5-RAID实验-实验报告

计算机系统结构实验报告班级实验日期实验成绩学号实验名称计算机系统结构实验5(磁盘、固态盘仿真)实验目的、要求编译Disksim,测试单个磁盘的性能(Response time)配置RAID0、RAID1、RAID5并做性能测试探究性实验(2选1)实验容、步骤及结果一、编译D ISKSIM,测试单个磁盘的性能(R ESPONSE TIME)测试某个磁盘,cheetah4LP.parv../src/disksim cheetah4LP.parv cheetah4LP.outv validate cheetah4LP.trace 0 查看相应的outv文件,获取响应时间结果,使用grep命令得到grep "IOdriver Response time average" cheetah4LP.outv二、配置RAID0、RAID1、RAID5并做性能测试(1)RAID5:为了方便对性能进行比较,进行如下的参数修改:保存为synthraid5.parv,并进行测试(2)RAID0:删除多余的generator 0 只留下一个,做如下更改:保存为synthraid0.parv,并进行测试(3)RAID1:删除多余的generator 0 只留下一个,做如下更改:保存为synthraid1.parv,并进行测试结论:通过测试我们可以发现在有效存储容量相同的情况下,RAID0使用的时间最少,速度最快。

三、探究性实验(2选1)设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性参数包括盘数,条带大小。

◎敏感性指:给定负载,其性能是否会随着参数变化而剧烈变化?◎看上去完全没变化?注意负载强度是否足够。

这里我们选择RAID5模式进行测试。

(1)条带大小一定,磁盘数改变此时(Stripe unit = 64,Parity stripe unit = 64)磁盘个数7个8个9个10个11个设备有效容量12336048 14392056 16448064 18504072 20560080 Synthetic结21.657719 20.865686 20.332438 19.923599 19.728367果2014.436976 1355.984474 1019.857911 882.827067 676.563854 Financial结果从一二两幅图中我们可以看到性能受磁盘个个数影响明显,对参数磁盘个数敏感,随着磁盘个数的增加,花费的时间减少。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

实验三RAID的实现一、实验目的1、了解与掌握RAID0、RAID1、RAID5的原理与实现2、了解与掌握RAID1、与RAID5数据的恢复第一部分在VMware虚拟机中添加SCSI硬盘一、在VMware虚拟机中添加4块SCSI硬盘1、打开虚拟机,但不要运行2、选择“Commands”栏内的“Edit virtual machine settings”选项3、在“Virtual Machine Settings”对话框中选择”Add”按钮→出现“Add Hardware Wizard”对话框→“HardDisk”Hard Disk→Next按钮4、在Select a Disk对话框中选择Create a new virtual disk选项→”next”按钮5、在select a Disk Type对话框中选择虚拟机磁盘类型时选择SCSI磁盘类型→“Next”按钮6、在Specify Disk Capacity对话框中将硬盘的大小设置为1GB→Next按钮,注意实际磁盘是由一个文件模拟的,文件名为“Other Linux2.6.x kernel.vmdk0-x”-→选择finish按钮7、重复第3步-第6步,直至生成4块1G SCSI硬盘后→”OK”按钮8、再“Commands”栏内选择→Power on this virtual machine,启动虚拟机二、检查计算机系统虚拟机启动后计算机系统外部存储器参数1、检查硬盘输入指令:more /proc/partitions作用:显示外存储器的设备信息,其中主设备号是指使用同一个驱动程序的设备编号,次设备号是指驱动程序的实例,blocks是指该设备拥有的块数目,name是指该设备的逻辑名称2、检查向内核注册的md设备输入指令dmesg |grep md作用:检查本台计算机系统支持的RAID级别3 检查此计算机的RAID子系统信息输入:more /proc/mdstat显示:Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]unused devices: <none>说明没有RAID被激活第二部分生成RAID0、RAID1、RAID5三、生成RAID0---striping条带是一种将数据分散于多个磁盘的方法,固定数量(chunk-size)的数据被写入每一个磁盘,磁盘不要求统一的大小。

1、生成RAID0命令:mdadm –Cv –l0 –n4 /dev/md0 /dev/sdb /dev/sdc /dev/sdd /dev/sde或:mdadm –Cv –l0 –n4 /dev/md0 /dev/sd{b,c,d,e}其中:-C --create 生成一个新阵列-v --verbose 显示详细信息-l --raid-level 选择RAID的级别:linear, 0, 1, 4, 5-n --raid-disks 设置在阵列中的磁盘数量/dev/md0 在Linux中,阵列的驱动器是md,第一个磁盘阵列称为/dev/md0,第二个磁盘阵列称为/dev/md1/dev/md0 磁盘阵列(array)由磁盘/dev/sdb, /dev/sdc, /dev/sdd, /dev/sde 4块磁盘组成1、检查:指令:more /proc/mdstat结果:ersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid0 sde[3] sdd[2] sdc[1] sdb[0]__4190208__ blocks super 1.2 __512____k chunksunused devices: <none>2、停止/dev/md0指令:mdadm --stop /dev/md0检查:无active磁盘阵列存在四、生成RAID1---磁盘镜像:RAID1在每次写入数据时,都会将数据复制到多个磁盘上1、生成磁盘镜像指令:mdadm -Cv -l1 -n3 -x1 /dev/md0 /dev/sd{b,c,d,e}其中:-n3 指阵列/dev/md0的磁盘数据为3块-x1 定义热备份盘的数量为1块2、检查/dev/md0指令: more /proc/mdstat结果:Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid1 sde[3](S) sdd[2] sdc[1] sdb[0]1048564 blocks super 1.2 [3/3] [UUU]注意:sde[3](s) s是指热备份盘3、检查热备份盘的作用---将/dev/md0阵列中的sdb盘标志为Fail指令mdadm --fail /dev/md0 /dev/sdb结果:mdadm: set /dev/sdb faulty in /dev/md0检查:more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid1 sde[3] sdd[2] sdc[1] sdb[0](F)1048564 blocks super 1.2 [3/3] [UUU]注意:sdb[0](f) f是指在/dev/md0磁盘阵列中,sdb为错误,但同时注意到sde盘中没有了(s) 说明:_________________________________________________________________________ ____________________________________________________________________________________________________________________________________________________ 3、停止/dev/md0指令:mdadm --stop /dev/md0检查:无active磁盘阵列存在五、生成RAID5---块级分布式奇偶校验RAID5采用数据条带,其条带以chunk-size为单位分配,在RAID5中,通过每个数据盘上的相应条带逐位计算奇偶校验位(异或操作),奇偶校验位存储在奇偶校验条带上,并且RAID5在所有磁盘上分布了奇偶校验条带1.生成RAID5指令:mdadm -Cv -l5 -c64 -n3 /dev/md0 /dev/sd{b,c,d}其中:-c64 指chunk-size为64bytes2、检查:more /proc/mdstat结果:Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sdd[3] sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]其中奇偶校验算法如下:3、检查并记录/dev/md0磁盘的阵列的详细信息指令:mdadm --detail /dev/md0六、将生成的/dev/md0磁盘阵列挂接于当前的目录中生成的/dev/md0磁盘阵列是独立于当前操作系统的树型目录结构的(该目录结构的起始点为/目录),用户尚不能访问而为了使用户能够使用/dev/md0磁盘阵列,就必须将/dev/md0挂接于当前目录结构的某个子目录下,作为当前目录结构的一个子节点,用户才能从根目录/开始,检索到此子节点,因此,在用户能够使用/dev/md0之前,仍需要经过磁盘分区、格式化、挂接于当前目录3个过程1、对/dev/md0磁盘阵列进行分区---使其形成仅有一个主分区的磁盘指令fdisk /dev/md0Command (m for help): 输入n 表示新生成一行分区表条目(16bytes长)Command actione extendedp primary partition (1-4)输入p 表示生成主分析Partition number (1-4, default 1):输入1 表示生成第1个主分区Using default value 1First sector (2048-4194047, default 2048): 直接回车表示磁盘从2048扇区开始Using default value 2048Last sector, +sectors or +size{K,M,G} (2048-4194047, default 4194047):直接回车表示到将扇截止Using default value 4194047Command (m for help): 输入p 表示将当前的分区打印出来Disk /dev/md0: 2147 MB, 2147352576 bytes2 heads, 4 sectors/track, 524256 cylinders, total 4194048 sectorsUnits = sectors of 1 * 512 = 512 bytesSector size (logical/physical): 512 bytes / 512 bytesI/O size (minimum/optimal): 65536 bytes / 131072 bytesDisk identifier: 0x37738694Device Boot Start End Blocks Id System/dev/md0p12048 4194047 2096000 83 Linux注意:设备名称为/dev/md0p1 表示md0磁盘阵列的第1个主分区Command (m for help): 输入w 表示将当前的分区表存入MBR扇区The partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.2、对/dev/md0p1进行格式化,将其格式化为ext4带有日志功能的文件系统指令:mke2fs -t ext4 /dev/md0p1或者:mke2fs -t ext4 -j -J size=16 /dev/md0p1表示jounal(存储日志区域)的大小是16MB显示如下信息:OS type: LinuxBlock size=4096 (log=2)Fragment size=4096 (log=2)Stride=16 blocks, Stripe width=32 blocks131072 inodes, 524000 blocks26200 blocks (5.00%) reserved for the super userFirst data block=0Maximum filesystem blocks=________536870912______________________16_______block groups_____32768________blocks per group, 32768 fragments per group8192 inodes per groupSuperblock backups stored on blocks:32768, 98304, 163840, 229376, 294912Writing inode tables: doneCreating journal (4096 blocks): doneWriting superblocks and filesystem accounting information: doneThis filesystem will be automatically checked every 36 mounts or 180 days, whichever comes first.3、将/dev/md0p1挂接于array子目录下,成为当前目录结构的一个子节点1)、生成array子目录指令:mkdir /array2)、将/dev/md0p1挂接于/array子目录下指令:mount /dev/md0p1 /array3)、进入/array子目录,使用ls命令查看指令cd /arrayls –al其中:-a 表示列出该目录下的所有文件及子目录l 表示长格式显示七、测试/dev/md0磁盘阵列的p1分区1、将一较大文件拷贝到/array指令:cp /etc/termcap-BSD /array/查看:cd /arrayls显示的内容:_____lost+found/ termcap-BSD_____________________________2、将/dev/md0磁盘阵列中的/dev/sdd标志为fail---表示该磁盘出现故障指令:cdmdadm --fail /dev/md0 /dev/sdd结果:mdadm: set /dev/sdd faulty in /dev/md0查看:more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sdd[3](F) sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_]这里的(F)是指磁盘阵列中的/dev/sdd标志为fail---表示该磁盘出现故障3、将/dev/md0磁盘阵列中的/dev/sdd盘抽出----表示从正在运行的磁盘阵列中移除一块盘指令:mdadm --remove /dev/md0 /dev/sdd结果:mdadm: ______hot______________ removed /dev/sdd from /dev/md04、向/dev/md0磁盘阵列中增加一块新盘----表示向正在运行的磁盘阵列中移入一块新盘使其使用“奇偶校验算法”在新磁盘上恢复损坏了的磁盘的内容指令:mdadm --add /dev/md0 /dev/sde结果:mdadm: added /dev/sde5、不断输入more /proc/mdstat指令,查看新磁盘的恢复过程指令:more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sde[3] sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_][===>.................] recovery = 19.2% (202624/1048512) finish=0.4min speed=33770K/sec指令:more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sde[3] sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_][==========>..........] recovery = 50.0% (524292/1048512) finish=0.1min speed=47662K/sec指令more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sde[3] sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_][============>........] recovery = 60.4% (633984/1048512) finish=0.1min speed=52832K/sec指令more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sde[3] sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_][=============>.......] recovery = 69.3% (727424/1048512) finish=0.1min speed=51958K/sec指令more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sde[3] sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/2] [UU_][=================>...] recovery = 87.0% (912384/1048512) finish=0.0min speed=57024K/sec指令more /proc/mdstatPersonalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]md0 : active raid5 sde[3] sdc[1] sdb[0]2097024 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]以上结果说明:6、向/dev/md0磁盘阵列中增加一块新盘替代损坏的磁盘----表示向正在运行的磁盘阵列中移入一块新盘,使其使用“奇偶校验算法”在新磁盘上恢复损坏了的磁盘的内容。

相关文档
最新文档