实验5-RAID实验-实验报告

合集下载

RHCA课程实验记录——RH436 高级的RAID管理

RHCA课程实验记录——RH436 高级的RAID管理

实验环境:Domain: IP: 192.168.2.0/24Server: FQDN: IP:192.168.2.254 Provide:DNS、DHCP、FTP,etc. Station1:FQDN: IP:192.168.2.1共有9块硬盘,sda 10GB为系统磁盘,sdb~sdi各1G,进行RAID实验。

如下图:对其分区(此步骤可省略)结果如下图:Station2:FQDN: IP:192.168.2.2下面的部分实验将会把Station1的RAID硬盘迁移到Station2中组装。

实验一:本地的RAID组装描述:在/etc/mdadm.conf文件损坏或丢失的情况下,并已知原raid的类型及所组成的硬盘名,来进行组装,使其正常运行。

步骤:1st: 首先创建一个RAID5.将sdb1,sdc1,scd1,sdf1组装一个包含一个热备盘的RAID5。

2ed: 使用命令查看RAID的状态。

3rd:生成/etc/mdadm.conf文件。

4th:手动停掉md0,再尝试启动。

成功启动。

5th:再次停掉md0,并将/etc/mdadm.conf改名,尝试启动6th:无法启动,因为已知RAID名为md0,且组成的硬盘为sdb1,sdc1,scd1,sdf1故可进行重新组装。

如下图:查看状态实验成功。

实验二:事件通知。

描述:当RAID出现问题时,发送邮件给指定帐户,这里我们将实验1中的RAID5损坏一块硬盘进行测试。

步骤:1st: 将邮件通知的命令写入/etc/mdadm.conf2ed:强制损坏/dev/sdc1实验成功。

如果RAID没有损坏,也可以测试邮件通知是否成功。

如下图:实验三:在线拉伸RAID。

描述:通常在实际生产环境中,随着数据量的不断增加,原有的RAID设备空间不足,所以要进行扩展,而又要保证服务器的正常运行,所以要在不中断服务器运行的情况下对RAID设备进行在线的拉伸。

同样在实验一的环境下进行,将该RAID5的大小由2GB扩大到3GB。

网络存储实验报告

网络存储实验报告

湖北文理学院《网络存储》实验报告专业班级:计科1211姓名:***学号:***任课教师:李学峰2014年11月16日实验01 Windows 2003的磁盘阵列技术一、实验目的1.掌握在Windows 2003环境下做磁盘阵列的条件和方法。

2.掌握在Windows 2003环境下实现RAID0的方法。

3. 掌握在Windows 2003环境下实现RAID1的方法。

4. 掌握在Windows 2003环境下实现RAID5的方法。

5. 掌握在Windows 2003环境下实现恢复磁盘阵列数据的方法。

二、实验要求1.在Windows 2003环境下实现RAID02.在Windows 2003环境下实现RAID13.在Windows 2003环境下实现RAID54.在Windows 2003环境下实现恢复磁盘阵列数据三、实验原理(一)磁盘阵列RAID技术的概述RAID是一种磁盘容错技术,由两块以上的硬盘构成冗余,当某一块硬盘出现物理损坏时,换一块同型号的硬盘即可自行恢复数据。

RAID有RAID0、RAID1、RAID5等。

RAID 技术是要有硬件来支持的,即常说的RAID卡,如果没RAID卡或RAID芯片,还想做RAID,那就要使用软件RAID技术,微软Windows系统只有服务器版本才支持软件RAID技术,如Windows Server 2003等。

(二)带区卷(RAID0)带区卷是将多个(2-32个)物理磁盘上的容量相同的空余空间组合成一个卷。

需要注意的是,带区卷中的所有成员,其容量必须相同,而且是来自不同的物理磁盘。

带区卷是Windows 2003所有磁盘管理功能中,运行速度最快的卷,但带区卷不具有扩展容量的功能。

它在保存数据时将所有的数据按照64KB分成一块,这些大小为64KB的数据块被分散存放于组成带区卷的各个硬盘中。

(三)镜像卷(RAID1)镜像卷是单一卷的两份相同的拷贝,每一份在一个硬盘上。

RAID的实现实验报告

RAID的实现实验报告

实验三RAID的实现一、实验目的1、了解与掌握RAID0、RAID1、RAID5的原理与实现2、了解与掌握RAID1、与RAID5数据的恢复第一部分在VMware虚拟机中添加SCSI硬盘一、在VMware虚拟机中添加4块SCSI硬盘1、打开虚拟机,但不要运行2、选择“Commands”栏内的“Edit virtual machine settings”选项3、在“Virtual Machine Settings”对话框中选择”Add”按钮→出现“Add Hardware Wizard”对话框→“HardDisk”Hard Disk→Next按钮4、在Select a Disk对话框中选择Create a new virtual disk选项→”next”按钮5、在select a Disk Type对话框中选择虚拟机磁盘类型时选择SCSI磁盘类型→“Next”按钮6、在Specify Disk Capacity对话框中将硬盘的大小设置为1GB→Next按钮,注意实际磁盘是由一个文件模拟的,文件名为“Other Linux2.6.x kernel.vmdk0-x”-→选择finish按钮7、重复第3步-第6步,直至生成4块1G SCSI硬盘后→”OK”按钮8、再“Commands”栏内选择→Power on this virtual machine,启动虚拟机二、检查计算机系统虚拟机启动后计算机系统外部存储器参数1、检查硬盘输入指令:more /proc/partitions作用:显示外存储器的设备信息,其中主设备号是指使用同一个驱动程序的设备编号,次设备号是指驱动程序的实例,blocks是指该设备拥有的块数目,name是指该设备的逻辑名称2、检查向内核注册的md设备输入指令dmesg |grep md作用:检查本台计算机系统支持的RAID级别3 检查此计算机的RAID子系统信息输入:more /proc/mdstat显示:Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]unused devices: <none>说明没有RAID被激活第二部分生成RAID0、RAID1、RAID5三、生成RAID0---striping条带是一种将数据分散于多个磁盘的方法,固定数量(chunk-size)的数据被写入每一个磁盘,磁盘不要求统一的大小。

raid5试验

raid5试验

1,分区:fdisk -lDisk /dev/sda: 21.4 GB, 21474836480 bytes255 heads, 63 sectors/track, 2610 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/sda1 * 1 1912 15358108+ 83 Linux/dev/sda2 1913 2009 779152+ 82 Linux swap / Solaris此磁盘共有2610个柱面,使用2009个柱面,可以再进行分区fdisk /dev/sdan—p—3--回车--+1000M(建立一个主分区)n—e—4—回车—回车(把剩下的磁盘空间都分为扩展分区中)划分扩展分区:Command (m for help): nFirst cylinder (2529-2610, default 2529):Using default value 2529Last cylinder or +size or +sizeM or +sizeK (2529-2610, default 2610): +500M转换分区类型:Command (m for help): tPartition number (1-12): 11Hex code (type L to list codes): fdChanged system type of partition 11 to fd (Linux raid autodetect)W保存退出2,建立raid5mdadm –C /dev/md5 –l5 –n3 /dev/sda5 /dev/sda6 /dev/sda7mdadm –D /dev/md5Number Major Minor RaidDevice State0 8 5 0 active sync /dev/sda51 8 6 1 active sync /dev/sda62 8 8 2 active sync /dev/sda73,挂载raidmkfs.ext3 /dev/md5mount /dev/md5 /tmp/md5/vi /etc/fstab/dev/md5 /tmp/md5 ext3 defaults 0 04,模拟磁盘故障mdadm /dev/md5 –f /dev/sda7maddm /dev/md5 –r /dev/sda7建议更换一新的同样大小的磁盘,安装在原sda7的位置,分区并更改类型为fdmdadm /dev/md5 –a /dev/sda7一切正常,不会因为重启而使sda7无法加入raid5。

raid基础实验报告

raid基础实验报告

raid基础实验报告Title: RAID Basic Experiment ReportIntroductionIn the world of data storage and management, RAID (Redundant Array of Independent Disks) plays a crucial role in ensuring data integrity, availability, and performance. RAID technology allows multiple hard drives to be combined into a single logical unit, providing various levels of data protection and performance improvements. In this experiment, we aimed to understand the basic concepts of RAID and evaluate its performance and fault tolerance through practical experiments.Experiment SetupFor this experiment, we set up a simple RAID 1 (mirroring) configuration using two identical hard drives. We used a computer with a RAID controller and installed the necessary software to configure and manage the RAID array. The RAID 1 configuration mirrors the data across both drives, providing fault tolerance in case of a drive failure.Experiment ProcedureWe started by initializing and formatting the two hard drives before configuring them into a RAID 1 array. Once the RAID array was set up, we conducted several performance tests to measure the read and write speeds of the RAID 1 configuration compared to a single hard drive. We also simulated a drive failure by disconnecting one of the drives while the system was running to observe theRAID's ability to maintain data integrity and availability.Results and AnalysisThe performance tests showed that the RAID 1 array provided a slight improvement in read speeds compared to a single hard drive, while write speeds remained similar. This is expected as RAID 1 focuses on data redundancy rather than performance enhancement. When we simulated a drive failure, the RAID 1 array seamlessly continued to operate without any data loss or downtime, demonstrating its fault tolerance capabilities.ConclusionOur experiment with RAID 1 configuration provided valuable insights into the basic principles and functionality of RAID technology. We observed the benefits of data redundancy and fault tolerance offered by RAID 1, as well as its impact on performance. This experiment serves as a solid foundation for further exploration of more advanced RAID levels and their applications in real-world scenarios. RAID technology continues to be a critical component in modern data storage systems, and understanding its capabilities is essential for IT professionals and data management practitioners.。

实验5-RAID实验-实验报告

实验5-RAID实验-实验报告

计算机系统结构实验报告班级实验日期实验成绩学号实验名称计算机系统结构实验5(磁盘、固态盘仿真)实验目的、要求编译Disksim,测试单个磁盘的性能(Response time)配置RAID0、RAID1、RAID5并做性能测试探究性实验(2选1)实验容、步骤及结果一、编译D ISKSIM,测试单个磁盘的性能(R ESPONSE TIME)测试某个磁盘,cheetah4LP.parv../src/disksim cheetah4LP.parv cheetah4LP.outv validate cheetah4LP.trace 0 查看相应的outv文件,获取响应时间结果,使用grep命令得到grep "IOdriver Response time average" cheetah4LP.outv二、配置RAID0、RAID1、RAID5并做性能测试(1)RAID5:为了方便对性能进行比较,进行如下的参数修改:保存为synthraid5.parv,并进行测试(2)RAID0:删除多余的generator 0 只留下一个,做如下更改:保存为synthraid0.parv,并进行测试(3)RAID1:删除多余的generator 0 只留下一个,做如下更改:保存为synthraid1.parv,并进行测试结论:通过测试我们可以发现在有效存储容量相同的情况下,RAID0使用的时间最少,速度最快。

三、探究性实验(2选1)设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性参数包括盘数,条带大小。

◎敏感性指:给定负载,其性能是否会随着参数变化而剧烈变化?◎看上去完全没变化?注意负载强度是否足够。

这里我们选择RAID5模式进行测试。

(1)条带大小一定,磁盘数改变此时(Stripe unit = 64,Parity stripe unit = 64)磁盘个数7个8个9个10个11个设备有效容量12336048 14392056 16448064 18504072 20560080 Synthetic结21.657719 20.865686 20.332438 19.923599 19.728367果2014.436976 1355.984474 1019.857911 882.827067 676.563854 Financial结果从一二两幅图中我们可以看到性能受磁盘个个数影响明显,对参数磁盘个数敏感,随着磁盘个数的增加,花费的时间减少。

5-建立_RAID5_提高磁盘利用率实训.

5-建立_RAID5_提高磁盘利用率实训.

建立 RAID5 提高磁盘利用率实训
【实训名称】
建立 RAID5 提高磁盘利用率
【实训目的】
通过本实训,熟悉 RAID5 功能原理,以及在 RG-iS-LAB 中实现 RAID5 的操作。

【背景描述】
某学校存储设备中有多块硬盘,在使用一段时间后,网络中心管理员提出,学校部分论文及科研成果重要等级较高,对这部分数据希望能够保证数据的高安全性,即使在部分磁盘损坏的情况下,也能保证数据的完整性。

前期工程师提出可以做 RAID1 提供磁盘高冗余性。

但是校方表示,如果采用 RAID1 的方案,磁盘利用率太低,而且可用磁盘空间也无法满足需求。

【需求分析】
需求 1:保证数据的高安全性,在部分磁盘损坏的情况下不会造成数据丢失。

分析 1:磁盘一旦损坏,如果没有保护,那么磁盘上所有的数据都会丢失,为了解决这一问题,把所有磁盘做成具有容错能力的磁盘阵列。

需求 2:在提供冗余性的同时能提供较高的磁盘利用率。

分析 2:可以采用 RAID5 来满足此需求,对磁盘做 RAID5 时,在提供磁盘冗余的同时,磁盘的利用效率是(n-1)/n,相对于 RAID1 有更高的磁盘利用率。

【实训拓扑】
【实训设备】
RG-iS-LAB 1 台;
PC 1 台;
二层交换机 1 台。

【预备知识】
网络存储基础知识、RAID 技术原理
【实训要求】
对学校存储设备中有多块硬盘进行建立 RAID5处理,提高磁盘利用率。

【实训流程】
……。

indows VM中RAID5的创建实训报告

indows VM中RAID5的创建实训报告

indows VM中RAID5的创建实训报告一、【实验目的】(1)学会在windows和Linux环境下构建软件RAID环境,并且实现RAID1和RAID5。

(2)比较理解RAID1和RAID5的异同,深刻掌握不同RAID的性能比较。

二、【实验设备】Windows Server2016系统、Linux三、【实验要求】学会在Windows server系统下创建RAID环境,掌握用命令行在Linux系统下创建RAID环境。

四、【实验步骤】(一)在Windows server系统下创建RAID环境,并实现RAID1和RAID5。

首先建立五个5g的磁盘。

打开虚拟机设置。

硬件——设备——硬盘——添加选择SCSI。

创建新虚拟磁盘。

磁盘大小设为5g,选择将虚拟磁盘存储为单个文件。

选择一个合适的地方存储,命名为experience Windows Server 2016-0这样就完成了一个磁盘的建立,接下来再按照上述方法创建四个。

打开磁盘管理,发现这五个磁盘属于脱机状态。

右键——联机再次右键——初始化磁盘。

这时就可以建立卷了。

除了这样直接用之外,还可以输入命令让磁盘脱机和清除磁盘属性。

打开cmd,进入diskpart界面,list disk 表示查看磁盘状态,select disk 2表示选择磁盘2进行操作,online disk表示使磁盘2联机,attr disk clear readonly表示删除磁盘属性。

这样设置完再进入磁盘管理,会自动弹出弹窗,让你进行初始化。

我们直接点击确认即可。

右键选择磁盘0——新建镜像卷。

(要注意此时要有两个已经初始化好的磁盘才可以建立镜像卷,因为RAID 1最少要两个磁盘。

从左边再选择一个磁盘,这样右边就有两个,符合建立RAID1的标准。

随便选一个磁盘驱动器号。

命名为RAID1,并且勾选快速格式化。

成功创建。

接下来创建RAID5,首先要有三个初始化好的磁盘,因为RAID5的建立至少要3个磁盘。

RHEL 软RAID5实验

RHEL 软RAID5实验

Rhel5 软raid5的实验RAID5:至少需要3块磁盘,是raid0和raid1的折中方案,采用奇偶校验的方式将数据拆分存储在不同的磁盘中,并且其数据和对应的校验信息存储在不同的磁盘上,最多允许有一块磁盘故障,在更换了故障的磁盘后可以使用校验信息来恢复丢失的数据。

本实验中将使用4块磁盘创建软RAID5,其中一块磁盘做备份磁盘。

软RAID,即操作系统级的RAID。

1、创建以来建立RAID5的4个分区。

[root@vm ~]# fdisk /dev/sdb //创建4个磁盘分区The number of cylinders for this disk is set to 2610.There is nothing wrong with that, but this is larger than 1024,and could in certain setups cause problems with:1) software that runs at boot time (e.g., old versions of LILO)2) booting and partitioning software from other OSs(e.g., DOS FDISK, OS/2 FDISK)Command (m for help): n //创建分区Command actione extendedp primary partition (1-4)p //选择主分区Partition number (1-4): 1 //分区ID 1First cylinder (1-2610, default 1):Using default value 1Last cylinder or +size or +sizeM or +sizeK (1-2610, default 2610): 100Command (m for help): nCommand actione extendedp primary partition (1-4)pPartition number (1-4): 2First cylinder (101-2610, default 101):Using default value 101Last cylinder or +size or +sizeM or +sizeK (101-2610, default 2610): 200Command (m for help): nCommand actione extendedp primary partition (1-4)pPartition number (1-4): 3First cylinder (201-2610, default 201):Using default value 201Last cylinder or +size or +sizeM or +sizeK (201-2610, default 2610): 300Command (m for help): nCommand actione extendedp primary partition (1-4)pSelected partition 4First cylinder (301-2610, default 301):Using default value 301Last cylinder or +size or +sizeM or +sizeK (301-2610, default 2610): 400Command (m for help): t //更改分区类型为“Linux raid autodetect”Partition number (1-4): 1Hex code (type L to list codes): fdChanged system type of partition 1 to fd (Linux raid autodetect)Command (m for help): tPartition number (1-4): 2Hex code (type L to list codes): fdChanged system type of partition 2 to fd (Linux raid autodetect)Command (m for help): tPartition number (1-4): 3Hex code (type L to list codes): fdChanged system type of partition 3 to fd (Linux raid autodetect)Command (m for help): tPartition number (1-4): 4Hex code (type L to list codes): fdChanged system type of partition 4 to fd (Linux raid autodetect)Command (m for help): p //查看分区结构Disk /dev/sdb: 21.4 GB, 21474836480 bytes255 heads, 63 sectors/track, 2610 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/sdb1 1 100 803218+ fd Linux raid autodetect /dev/sdb2 101 200 803250 fd Linux raid autodetect /dev/sdb3 201 300 803250 fd Linux raid autodetect /dev/sdb4 301 400 803250 fd Linux raid autodetectCommand (m for help): w //保存退出The partition table has been altered!Calling ioctl() to re-read partition table.Syncing disks.[root@vm ~]#2、创建软RAID5阵列。

Linux下RAID实验

Linux下RAID实验

Linux下RAID实验【实验环境】Linux实验台【实验内容】创建RAID 0和RAID 1创建RAID 5并测试其有效性【实验原理】一、Linux下的RAIDLinux系统在安装的过程中就可以使用RAID。

在使用当中,利用一些工具,可以实现比Windows还要强大得多的功能,比如RAID 0+1和RAID 0+5。

在Linux下既可以对整块硬盘做RAID,也可以对其某一个分区做RAID。

Linux下常用来做软RAID的工具主要有两个:一个是mdadm,另一个是raidtools。

在本实验中我们选用了mdadm。

在Linux下利用mdadm为非启动盘做软RAID比较简单。

在实验步骤中,分别给出了Linux 下RAID 0、RAID 1和RAID 5的制作过程,希望学生根据RAID 0+1的原理和提示,自己完成RAID 0+1和RAID 0+5的制作。

与Windows不同,Linux的主硬盘(系统所在硬盘)也支持软RAID 1,但相对非主硬盘来说制作过程要复杂得多。

它不但要详细设置mdadm,还要设置启动管理器GRUB。

在制作过程中还要将主硬盘上的内容完全复制到它的镜像盘,时间较长。

二、mdadm说明(一)m dadm的7种主要操作方式(1)create创建一个带超级块的磁盘阵列。

(2)assemble将之前建立的磁盘阵列变为活跃的(active)。

(3)build用于创建没有超级块的磁盘阵列。

(4)manage用于对在一个磁盘阵列上的一个或多个设备做一些操作,如添加(add)、移除(remove)和使失败(fail),还包括以下功能:run/stop/readonly/readwrite。

(5)misc用于对单个设备的操作,它们可能是磁盘阵列的几部分,所以是零超级块,检测可能是适当的。

它们可能是md阵列,因此run,stop,rw,ro,detail这些操作也是可以的。

(6)monitor查看磁盘阵列并显示改变。

Lniux文件系统实验报告

Lniux文件系统实验报告

实验五文件系统
一、实验目的
1.掌握Linux系统下fdisk命令的用法。

2.掌握Linux系统下文件系统的创建、挂载与卸载。

3.掌握Linux系统下利用RAID技术实现磁盘冗余阵列的方法。

二、实验内容
1.磁盘分区管理
2.动态磁盘管理
三、实验指导
1.服务器现需要新建一块20GB的硬盘,需要对新增的硬盘进行分区管理、分区方案为/user目录所在分区10GB,/backup目录所在分区5GB,/home目录所在分区5GB。

步骤一,添加新硬盘
点击“编辑虚拟机设置”按钮,如下图
选择添加硬盘,如下图
下一步选择“SCSI(S)推荐”,如下图
下一步创建“新虚拟磁盘”,设置磁盘空间大小为“20GB”,如下图所示
单击完成,即完成了新硬盘的添加,如下图所示
通过fdisk -l命令查看新硬盘是否添加成功
步骤二,利用fdisk命令对/dev/sdb/进行分区
步骤三,格式化新建分区,在各分区上建立ext3类型的文件的系统,建立时要求检查磁盘坏块并显示详细信息。

步骤四,将/dev/sdb1挂载到/user目录,/dev/sdb2挂载到
/backup目录,/dev/sdb3挂载到/home目录
2、某公司的Linux服务器新增两块硬盘,硬盘大小为40GB。

为了实现数据保护功能,现需利用2块硬盘创建RAID1卷。

要求创建的RAID设备名为/dev/md110,并利用mkfs命令创建ext3文件系统。

最后将文件系统挂载到系统上。

四、实验总结
通过本次实验,我学习到fdisk 的一些命令和在Linux 系统下利用RAID 技术实现磁盘冗余阵列的方法。

RAID 实验

RAID 实验

实验五RAID 5实验一、实验目的使用存储设备实现硬盘的RAID 5 功能二、背景描述某学校存储设备中有多块硬盘,为了保证数据的安全,提高硬盘读写性能,决定把所有磁盘做RAID 5三、需求分析需求1:解决硬盘损坏造成的数据丢失问题分析1:因为硬盘一旦损坏,没有保护的话,所有数据就会丢失,为了解决这个问题,我们把所有磁盘做成有容错功能的磁盘阵列。

需求2:解决单个硬盘读写速度有限的问题。

分析2:因为单个硬盘的读写速度有限,应用大的时候会造成系统的瓶颈,所以做RAID 后,各个磁盘之间是并行读写,大大增加速度。

四、实验设备RG-iS-LAB 1台直连线1条PC 1台五、预备知识网络存储基础知识,RAID技术原理、iSCSI技术六、实验原理RAID 的英文全称为Redundant Array of Independent Disks。

中文名称是独立磁盘冗余阵列。

RAID 技术的初衷主要是为了大型服务器提供高端的存储功能和冗余的数据安全。

在系统中,RAID被看作是一个逻辑分区,但是它是由多个硬盘组成的(最少两块)。

它通过在多个硬盘上同时存储和读取数据来大幅提高存储系统的数据吞吐量(Throughput),而且在很多RAID模式中都有较为完备的相互校验/恢复的措施,甚至是直接相互的镜像备份,从而大大提高了RAID系统的容错度,提高了系统的稳定冗余性,这也是Redundant一词的由来。

常见的级别有RAID0、RAID1、RAID3、RAID5、RAID6、RAID0+1、RAID10、RAID50等。

RAID5 是向阵列中的磁盘写数据,将数据段的奇偶校验数据交互存放于各个硬盘上。

任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据。

RAID 5一个阵列中至少需要三个物理驱动器,硬盘的利用率为n-1/n。

性价比最高,如图5-1所示RAID 5 磁盘阵列+。

七、实验步骤可以直接使用RG-iS-LAB中的硬盘进行RAID,也可以在RG-iS-LAB上划分几块存储空间给PC,用PC来实现,空间划分方法见《IP SAN实验》。

Linux实训-实现磁盘阵列RAID5

Linux实训-实现磁盘阵列RAID5
2.查看当前系统识别到的磁盘设备
#cat /proc/partitions查看当前系统识别到的磁盘设备
3.用fdisk命令初始化三块新硬盘,设置如下图所示:
4.RAID5磁盘阵列的硬盘使用情况.如下图所示:
#fdisk–l
5.开始创建磁盘阵列
# mdadm --creat /dev/md0 --level=5 --raid-devices=3 /dev/sd{c,d,e}1
云南xx学院信息工程学院
xxxx课程xxxx实训项目实训报告表
学号
姓名
班级
实训性质
①设计性实训 ②综合性实训
实训时间
实训地点
实训主要设备
实训内容
实训内容及步骤、结果记录
(写出每个命令执行时,所显示的内容用截图,每个步骤用序号注明,位置太小用回车增加空间)
Linux 实现磁盘阵列RAID5
1.在VM中新建了三块200M的硬盘.用于实验.如下图所示:
#ll /mnt/raid5x
实训小结
任课教师评价: 优秀 良好 中等 及格 不及格
教师签字(签章):
年月日
6.为新建的/dev/md0建立类型为ext3的文件系统
#mkfs–t ext3–c /dev/md0
7ห้องสมุดไป่ตู้查看创建效果
#mdadm --detail /dev/md0
8.下面新建目录.
#mkdir /mnt/raid5x
#mount /dev/md0 /mnt/raid5x
9.拷贝文件到磁盘阵列
#cp任意文件/mnt/raid5x

实现RAID0、1、5 实验报告

实现RAID0、1、5 实验报告

实现RAID0、1、5 实验报告班级:10网工三班学生姓名:谢昊天学号:1215134046实验目的:1.掌握软RAID的配置方法。

2.掌握RAID0、1、5的配置过程。

3.掌握RAID1、5数据恢复方法。

实验要求:1.实验中仔细观察、记录、比较实验结果,如果不一致应找出原因。

2.实验中凡是需要命名的地方,均以自己名字的全拼来命名,可以用不同后缀来区分。

如张三的两台服务器可以命名为:zhangsanS1,zhangsanS2。

实验内容:1、在VMware中创建一台Windows Server。

2、将该Server添加3块虚拟磁盘。

3、格式化新添加的3块磁盘。

4、在新磁盘上分别配置RAID0 、1、5,对应驱动器号分别为E、F、G。

5、在以上三个卷中分别建立不同的文件。

6、关闭Server,去掉所添加硬盘中的第一块。

7、开启Server,查看E、F、G还能否访问。

8、关闭Server,重新添加一块新磁盘,并使用其恢复RAID1和RAID5。

实验步骤与实验过程:1、首先在VMware中创建出一台Windows Server,将Server添加3块虚拟磁盘,然后打开虚拟机格式化添加的3块磁盘,在新磁盘上分别配置为RAID0 、1、5,对应驱动器号分别为E、F、G,并在以上三个卷中分别建立出不同的文件。

2、关闭Server,去掉添加硬盘中的第一块,开启Server,查看E、F、G是否还能否访问。

3、关闭Server,重新添加一块新的磁盘,并恢复RAID1和RAID5。

实验结果:1、配置了成功RAID0、1、5,并将名为Inetpub、Program Files、web的三个文件分别加入到E、F、G三个磁盘。

2、去掉所添加硬盘中的第一块后,打开虚拟机后只剩下新建的F盘,并且可以访问F盘的文件Program Files3、去掉所添加硬盘中的第一块后,E、F、G在磁盘管理中都显示失败,修复磁盘RAID1、5后显示状态良好,并且可以访问F、G盘的文件Program Files、web。

计算机系统结构实验报告-存储系统RAID 性能测试

计算机系统结构实验报告-存储系统RAID 性能测试

计算机系统结构实验报告班级:xxxxxxxxxxxxxxxx 姓名:xxxxxx 学号:2xxxxxxxxxxxxxx 报告完成时间:20xxxxxxxx计算机系统结构实验报告班级xxxxxxx 实验日期xxxxxxxxx 实验成绩姓名xxxxxxxxxx 学号xxxxxxxxxxxx实验名称存储系统RAID 性能测试实验目的、要求及器材实验目的与要求:①掌握RAID0-5的基本组织方式和特点②RAID0,1,5配置与简单测试;③探究RAID的小写性能或参数敏感性实验器材:虚拟LINUX环境Ubuntu;d isksim-4.0;计算机一台。

实验内容、步骤及结果1.编译Disksim①通过邮件将disksim-4.0.tar.gz和ssd-add-on.zip传送至Ubuntu。

②Tar -vxzf disksim-4.0.tar.gz③在disksim-4.0中编译 make④Unzip ../ssd-add-on.zip⑤patch -p1 < ssdmodel/ssd-patch⑥在Ssdmodel中make⑦进入valid,chmod a+x runvalidOK now!在disksim-4.0中的valid或者ssdmodel/valid 中执行./runvalid即可得到所有文件的测试结果2.修改parv内logorg,模拟RAID0有效盘数设为5Raid0.parv中参数设置如下# component instantiationinstantiate [ statfoo ] as Statsinstantiate [ ctlr0 .. ctlr4 ] as CTLR0instantiate [ bus0 ] as BUS0instantiate [ disk0 .. disk4 ] as HP_C3323Ainstantiate [ driver0 ] as DRIVER0instantiate [ bus1 .. bus5 ] as BUS1# end of component instantiation# system topology[设为5个盘并行的拓扑结构]设置冗余模式、编址模式、分配策略等:disksim_logorg org0 {Addressing mode = Array,Distribution scheme = Striped,Redundancy scheme = Noredun,devices = [ disk0 .. disk4 ],Stripe unit = 64,……}设置随机概率Probability of sequential access = 0.2,Probability of local access = 0.4,Probability of read access = 0.66,Probability of time-critical request = 0.1,Probability of time-limited request = 0.3,存储器总容量为Storage capacity per device = 2056008*5 = 10280040,接下来便可进行虚拟测试../src/disksim raid0.parv raid0.txt ascii 0 1打开raid0.txt查看测试结果:Overall I/O System Total Requests handled: 10002Overall I/O System Requests per second: 100.928186Overall I/O System Completely idle time: 11953.034363 0.120616Overall I/O System Response time average: 24.486686Overall I/O System Response time std.dev.: 13.542895Overall I/O System Response time maximum: 137.672973Overall I/O System Response time distribution< 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 196 332 3551 4960 690 220 44 9 0 0可见raid0 组织模式的I/O系统平均响应时间为24.486686 ms3.修改parv内logorg,模拟RAID1有效盘数设为4Raid1.parv中参数设置如下# component instantiationinstantiate [ statfoo ] as Statsinstantiate [ ctlr0 .. ctlr7 ] as CTLR0instantiate [ bus0 ] as BUS0instantiate [ disk0 .. disk7 ] as HP_C3323Ainstantiate [ driver0 ] as DRIVER0instantiate [ bus1 .. bus8 ] as BUS1# end of component instantiation# system topology[设为8个盘并行的拓扑结构]冗余模式设为Redundancy scheme = Shadowed,存储容量 Storage capacity per device = 8224032,其余设置同raid0接下来进行虚拟测试../src/disksim raid1.parv raid1.txt ascii 0 1打开raid1.txt查看测试结果:OVERALL I/O SYSTEM STATISTICS-----------------------------Overall I/O System Total Requests handled: 9999Overall I/O System Requests per second: 100.452735Overall I/O System Completely idle time: 12533.813298 0.125918Overall I/O System Response time average: 23.141863Overall I/O System Response time std.dev.: 11.234684Overall I/O System Response time maximum: 136.662648Overall I/O System Response time distribution< 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 185 255 3912 4958 553 114 21 1 0 0可见raid1 组织模式的I/O系统平均响应时间为23.141863 ms4.修改parv内logorg,模拟RAID5有效盘数设为4Raid0.parv中参数设置如下# component instantiationinstantiate [ statfoo ] as Statsinstantiate [ ctlr0 .. ctlr4 ] as CTLR0instantiate [ bus0 ] as BUS0instantiate [ disk0 .. disk4 ] as HP_C3323Ainstantiate [ driver0 ] as DRIVER0instantiate [ bus1 .. bus5 ] as BUS1# end of component instantiation# system topology[设为5个盘并行的拓扑结构]冗余模式设为Redundancy scheme = Parity_rotated,存储容量 Storage capacity per device = 8224032,其余设置同raid0接下来进行虚拟测试../src/disksim raid5.parv raid5.txt ascii 0 1打开raid5.txt查看测试结果:OVERALL I/O SYSTEM STATISTICS-----------------------------Overall I/O System Total Requests handled: 10001Overall I/O System Requests per second: 100.494066Overall I/O System Completely idle time: 6.907489 0.000069Overall I/O System Response time average: 56.222291Overall I/O System Response time std.dev.: 49.033242Overall I/O System Response time maximum: 480.847859Overall I/O System Response time distribution< 5 < 10 < 20 < 40 < 60 < 90 <120 <150 <200 200+ 109 164 1496 3273 1722 1503 752 439 324 219可见raid5 组织模式的I/O系统平均响应时间为56.222291 ms5.探究性试验设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性参数包括盘数,条带大小敏感性指,给定负载,其性能是否会随着参数变化而剧烈变化本实验采用ssdmodel执行,期间同时加载了<tracefile> 和<synthgen>发现得到的结果反而相差不大,所以后来只加载了ssd-postmark-aligned2.trace。

阵列处理实验报告

阵列处理实验报告

一、实验名称阵列处理实验二、实验目的1. 理解阵列处理的基本概念和原理。

2. 掌握使用数组进行数据存储和操作的方法。

3. 学习通过编程实现简单的阵列处理算法。

4. 提高编程能力和问题解决能力。

三、实验原理阵列处理是计算机科学和工程领域中的一个重要概念,它涉及到对一组数据(即数组)进行高效的存储、检索和操作。

在计算机中,数组是一种数据结构,它允许存储多个具有相同数据类型的元素,并通过索引来访问这些元素。

本实验通过编程实现对数组的创建、初始化、遍历、排序、搜索等基本操作,从而加深对阵列处理的理解。

四、实验设备1. 计算机一台2. 编程软件(如Visual Studio、Eclipse等)3. 实验指导书五、实验内容1. 创建和初始化数组2. 遍历数组3. 数组排序4. 数组搜索5. 阵列处理应用实例六、实验步骤1. 创建和初始化数组- 创建一个整数类型的数组,并初始化为随机值。

- 创建一个字符类型的数组,并初始化为字符串。

2. 遍历数组- 使用循环结构遍历数组,打印出每个元素。

3. 数组排序- 实现一个简单的冒泡排序算法,对整数数组进行排序。

- 使用内置的排序函数对字符数组进行排序。

4. 数组搜索- 实现二分搜索算法,在已排序的整数数组中查找特定元素。

- 使用线性搜索在字符数组中查找特定字符。

5. 阵列处理应用实例- 编写一个程序,实现将一个二维数组转换为矩阵转置的功能。

七、实验结果与分析1. 创建和初始化数组- 成功创建并初始化了整数和字符数组。

2. 遍历数组- 成功遍历并打印了数组的所有元素。

3. 数组排序- 成功使用冒泡排序算法对整数数组进行了排序。

- 成功使用内置排序函数对字符数组进行了排序。

4. 数组搜索- 成功实现了二分搜索算法,找到了整数数组中的特定元素。

- 成功实现了线性搜索,找到了字符数组中的特定字符。

5. 阵列处理应用实例- 成功编写了程序,实现了二维数组到矩阵转置的功能。

八、实验总结通过本次实验,我对阵列处理有了更深入的理解。

raid 5实验报告

raid 5实验报告
mdadm –Ds(查看uuid)
vim /etc/fstab
984f686f-de64ef2b-8fca37e2-89a727c0/mntext4defaults0 0
mount–a(挂载设备)
df -hቤተ መጻሕፍቲ ባይዱ
mdadm -Ds > /etc/mdadm.conf
测试:
mdadm /dev/md0 -f /dev/sdd(破坏磁盘sdd)
7.编辑fstab文件使raid 5设备可以自动挂载。
8.挂载raid 5设备。
9.创建mdamd.conf文件。
二、测试raid 5设备。
1.使磁盘sdd坏掉,磁盘sde自动顶替磁盘sdd。
2.移除磁盘sdd。
3.添加磁盘sdf为备用磁盘。
4.这时再查看设备详细信息,已经没有磁盘sdd,但仍能正常工作。
数据记录和计算
创建:
lsblk
cat /proc/mdstat (查看现有设备)
mdadm -C /dev/md0 -l5 -n3 /dev/sd{b,c,d} -x1 /dev/sde(创建raid 5)
mdadm -D /dev/md0(查看详细信息)
mkfs.ext4 /dev/md0(格式化)
mdadm /dev/md0 -r /dev/sdd(移除磁盘sdd)
mdadm /dev/md0 -a /dev/sdf(添加磁盘sdf)
mdadm -D /dev/md0(查看设备详细信息)
结论
(结果)
Raid 5设备安装测试成功。
小结
Raid 5设备比较稳定,使用与大部分情况,学会安装raid 5是非常有必要的。
实验报告
实验名称

RAID实验的结果分析和实验未完成事项以及收获和感想

RAID实验的结果分析和实验未完成事项以及收获和感想

RAID实验的结果分析和实验未完成事项以及收获和感想通过以上实验的理论依据和实际操作,我们在团队的配合和努力下,顺利的完成了Matrix RAID的安装,并通过以上数据和图表记录的信息,得到了以下几点结论:1.BIOS的设置至关重要,首先把磁盘设置成为Matrix RAID格式,才可进行下面的实验。

2.Windows XP安装盘上必须有RAID驱动程序,否则无法安装。

在确保以上前提下,我们最终得到了以下数据在windows XPprofessional安装程序启动后,程序先开始格式化,然后系统将进行大约15分钟的格式化过程,完成该过程后,便是系统的安装读取过程,该过程中我们组做的比较顺利,该过程之后,便是xp系统的正式安装,如图1-2所示,在五步中,系统的安装花时间较长,约10分钟左右,之后,完成者五步便完成了基本的安装,下面需要对xp系统进行优化。

完成一系列的安装之后,重启电脑,便可以顺利的进入xp系统。

之后需要对RAID进行测试,测试结果如图1-3 1-4所示测试一从图中的数据中,我们可以看出,随机访问是11.9ms,CPU的占用率是0%,平均读盘速度是111.1MB/s,突发传输速度是227.2MB/s。

与普通的想比较我们可以看到,平均读盘比普通高56MB/S.超出一倍。

突发速度比普通高99MB/s,超出88%左右。

可以明显的看出,该模式优于普通模式。

测试二从该表我们可以看到,随机访问的时间是15.4ms,平均传输是55.3MB/s突发传输速度是128.6MB/s。

测试三从该图中我们可以看出,平均读取时间17ms cpu使用率o%,平均读取速度65.9MB/s,突发速度为136.5Mb/s。

比普通的大2mb/s。

可见效果佳于普通。

以上几组测试都说明了RAID模式下的优越性。

可以明显的感觉到速度的提升。

完成该实验重要点在于1、BIOS设置2、Intel Matrix Storage Manager Option ROM设置3、盘上是否有RAID驱动程序4、Matrix RAID 性能测试实验需要团队的配合和分工,也需要很好的耐心和信心。

基本命令九(raid卷管理)

基本命令九(raid卷管理)

九江职业技术学院Jiujiang V ocational & Technical College




名课程称:LINUX系统配置
班级:
学号:
姓名:
指导教师:
日期:
●以root用户登录到系统字符界面下,输入fdisk命令,把要进行分区的硬盘设备文
件作为参数,例如:fdisk /dev/sdb。

●利用子命令m,列出所有可使用的子命令。

●输入子命令p,显示已有的分区表。

●输入子命令n,创建主分区sdb1。

●输入子命令t,设置分区的类型。

●输入要设置分区类型的分区代号fd。

●输入子命令p,查看设置结果。


●同样的方法创建sdb2、sdb3和sdb4.
●输入fdisk -l,查看设置结果。

(2)建立raid分区
mdadm --create /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sd[b-e]1
(3)格式化raid卷mkfs -t ext3 -c /dev/md0
(4)查看raid卷的信息mdadm --detail /dev/md0
(5)使用raid卷mkdir /mnt/md0 mount /dev/md0 /mnt/md0
(6)模拟硬盘故障数据不会丢失恢复mdadm /dev/md0 --fail /dev/sdc1 mdadm /dev/md0 --remove /dev/sdc1 mdadm --detail /dev/md0。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

计算机系统结构实验报告


实验日期
实验成绩


学号




计算机系统结构实验5(磁盘、固态盘仿真)







编译Disksim,测试单个磁盘的性能(Response time)
配置RAID0、RAID1、RAID5并做性能测试
探究性实验(2选1)










一、编译D ISKSIM,测试单个磁盘的性能(R ESPONSE TIME)
测试某个磁盘,cheetah4LP.parv
../src/disksim cheetah4LP.parv cheetah4LP.outv validate cheetah4LP.trace 0 查看相应的outv文件,获取响应时间结果,使用grep命令得到
grep "IOdriver Response time average" cheetah4LP.outv
二、配置RAID0、RAID1、RAID5并做性能测试
(1)RAID5:为了方便对性能进行比较,进行如下的参数修改:
保存为synthraid5.parv,并进行测试
(2)RAID0:删除多余的generator 0 只留下一个,做如下更改:
保存为synthraid0.parv,并进行测试
(3)RAID1:删除多余的generator 0 只留下一个,做如下更改:
保存为synthraid1.parv,并进行测试
结论:通过测试我们可以发现在有效存储容量相同的情况下,RAID0使用的时间最少,速度最快。

三、探究性实验(2选1)
设计实验,任意选择其中一种RAID模式,分析验证其参数敏感性
参数包括盘数,条带大小。

◎敏感性指:给定负载,其性能是否会随着参数变化而剧烈变化?
◎看上去完全没变化?注意负载强度是否足够。

这里我们选择RAID5模式进行测试。

(1)条带大小一定,磁盘数改变
此时(Stripe unit = 64,Parity stripe unit = 64)
磁盘个数7个8个9个10个11个
设备有效容量12336048 14392056 16448064 18504072 20560080 Synthetic结果21.657719 20.865686 20.332438 19.923599 19.728367 Financial结果2014.436976 1355.984474 1019.857911 882.827067 676.563854。

相关文档
最新文档