vSphere使用Nas做共享存储
vSphere存储配置
6.2 vSphere存储配置
目录
课程回顾 技能要点 知识讲解 技能操作 课程小结
1、常用存储设备介绍; 2、vSphere支持的存储类型 3、vSphere支持的存储文件格式
6.2 vSphere存储配置
目录
课程回顾 • 学会安装Openfiler
单元目标
• 学会配置Openfiler
6.2 vSphere存储配置
(6)创建卷组
6.2.1安装Openfiler
6.2 vSphere存储配置
6.2.1安装Openfiler
(7)创建ISCSI逻辑卷,选择“volumes”,点击”add volumes”创建新的卷
6.2 vSphere存储配置
(8) system菜单下,配置网络访问
配置iSCSI外部存储器
6.2.1安装Openfiler
(4)查看ESXI主机的存储适配器,可以看到软件ISCSI适配器已经添加进ESXI
主机
6.2 vSphere存储配置
配置iSCSI外部存储器 (5)配置ISCSI
6.2.1安装Openfiler
6.2 vSphere存储配置
配置iSCSI外部存储器 (6)添加成功,可以看到新添加的存储设备信息
6.2.1安装Openfiler
6.2 vSphere存储配置
Openfiler配置
(1)使用firefox或 IE浏览器登录OPENFILER (2)进入登录界面,默认用户名为openfiler, 初始密码为password,单击log in (3)登录后,可以看到OPENFILER主机的软 硬件信息。 (4)选择VOLUMES菜单,可以看到“volume group management“下面没有任何卷信息。
01.VMware vSphere5.5添加共享磁盘
一、概述在虚拟机中搭建RAC,需要创建一个共享磁盘,该文档对设置操作简单记录,方便以后查找。
有两种不同的方法,一种是图形界面,一种是通过配置文件。
二、图形界面方式创建1.创建共享磁盘选择一台参与共享磁盘的虚拟机,编辑虚拟机配置,选择添加新硬件"硬盘",创建新的虚拟磁盘知识点补充:1、厚置备延迟置零(zeroed thick)以默认的厚格式创建虚拟磁盘。
创建过程中为虚拟磁盘分配所需空间。
创建时不会擦除物理设备上保留的任何数据,但是以后从虚拟机首次执行写操作时会按需要将其置零。
简单的说就是立刻分配指定大小的空间,空间内数据暂时不清空,以后按需清空。
2、厚置备置零(eager zeroed thick)创建支持群集功能(如 FaultTolerance)的厚磁盘。
在创建时为虚拟磁盘分配所需的空间。
与平面格式相反,在创建过程中会将物理设备上保留的数据置零。
创建这种格式的磁盘所需的时间可能会比创建其他类型的磁盘长。
简单的说就是立刻分配指定大小的空间,并将该空间内所有数据清空。
3、精简置备(thin)使用精简置备格式。
最初,精简置备的磁盘只使用该磁盘最初所需要的数据存储空间。
如果以后精简磁盘需要更多空间,则它可以增长到为其分配的最大容量。
简单的说就是为该磁盘文件指定增长的最大空间,需要增长的时候检查是否超过限额。
磁盘置备中,选择厚置备置零;位置选择我们的存储设备,将我们的共享磁盘放在存储上接下来的"虚拟设备节点"切记选择独立的SCSI 设备节点,若原来本地使用SCSI(0:0),那现在可以选SCSI(1:0),总之冒号前的数字不能与本地SCSI设备一样;(为了避免快照对各虚拟机的影响,建议"模式"选择"持久"方式2.修改新的SCSI控制器总线共享方式接着,点击右下角"确认"按钮,这台虚拟机的共享磁盘配置即完成3.添加第二台虚拟机连接共享磁盘在第二台参与访问共享磁盘的虚拟机上,同样编辑添加新设备"硬盘",但选择"使用现有虚拟磁盘""虚拟设备节点"部分与第一台一样,选择一个独立的SCSI 节点:回到"虚拟机属性"界面,修改"新的SCSI 控制器"参数为"虚拟"方式:至此,两台虚拟机共享访问同一磁盘的配置已经完成。
群晖NAS私有云存储方案
群晖NAS私有云存储方案郑州鼎益信息技术有限公司一、可实现功能:1、用户账户权限设定:可设定每个用户账户的不同的访问权限,可设定禁止访问、读写权限、只读或只写入权限以及禁止删除权限。
2、共享文件夹权限设定:可设定每个共享文件夹不同的访问权限,允许或禁止账户访问、禁止下载等高级权限设置。
3、支持不同终端访问:用户可在局域网或外部网络上通过电脑、手机、平板电脑等设备访问进NAS,读取NAS里面的资料或文件。
4、多种形式访问:用户可通过浏览器、APP、网络映射磁盘等形式访问进nas。
在电脑上用户可浏览器或做网络磁盘映射方式读取NAS 里面的文件。
移动端可安装对应APP访问进NAS里,读取NAS里面的文件。
5、允许外网访问:NAS可设置QuickCorrect或ddns域名地址,允许用户在不同网络环境下都可访问NAS。
在局域网或外网环境下都可以用电脑或手机访问NAS查看NAS文件或进行文件共享给他人。
6、可保存32个历史版本:重要文件可实现历史版本备份,方便查询历史版本7、支持团队协作,在线办公:支持同一时间多人在线编辑同一文件,方便团队在线编辑。
8、支持NAS文件多地备份:支持电脑和NAS之间文件同步或备份,支持NAS和百度云文件同步备份,支持NAS与NAS之间文件同步备份,可将重要文件多地备份。
9、支持日志记录;可查询每个账户在nas上的操作记录。
二、功能介绍1、文件同步备份群晖NAS本身就是个文件存储服务器,主要功能之一就是数据存储备份。
群晖NAS硬件上是将多个硬盘组建RAID存储池,来保存数据文件,当任意一个硬盘出现故障或损坏时,RAID存储池里面的数据不影响,还可以正常读取访问,用户仅将损毁的硬盘替换即可。
软件上群晖支持多种备份方式,支持存储文件多个历史版本,最多32个历史版本或历史版本保存120天;支持电脑和NAS之间文件同步备份、支持NAS与NAS之间文件同步备份、支持服务器与NAS之间文件同步备份以及NAS与第三方云盘之间文件同步备份,将数据多次异地备份,保证数据不会丢失损坏。
oracle 10g RAC linux vmware workstation FREENAS共享存储
RAC安装文档一、规划软件规划二、安装freeNAS,作为共享存储FreeNAS是一套免费的NAS服务器,它能将一部普通PC变成网络存储服务器。
该软件基于FreeBSD,Samba 及PHP,支持CIFS (samba), FTP, NFS protocols, Software RAID (0,1,5) 及web 界面的设定工具。
用户可通过Windows、Macs、FTP、SSH 及网络文件系统(NFS) 来访问存储服务器;FreeNAS可被安装于硬盘或移动介质USB Flash Disk上,所占空间不足16MB。
1、freeNAS软件安装将镜像文件放入光驱,启动选择9安装,回车选择3,安装完全系统在HDD+DATA+SWAP partition <OK>将会创建三个分区1.OS 2.DATA 3.SWAP <OK>选择安装介质<ok>选择安装分区ad0 <OK>OS分区大小默认380M <OK>是否创建是swap分区,yesSwap分区默认大小256M <OK>完成安装,重新启动系统启动完成后,设置ip地址:192.168.10.253/24设置完成重置web登录密码,选择3重置web界面密码为:freenas < Yes>帐号是:admin登录:修改语言环境-修改为简体中文:System>general>: save 保存。
2、添加磁盘,模拟存储添加三块磁盘做raid5 ,给rac做共享存储--OK重新启动NAS服务器,登录管理界面找到磁盘>管理点击最右侧下方的+号图标,添加磁盘选项:已格式化的文件系统选择softraid,其他默认将三块磁盘依次添加完成添加完成后---应用更改硬盘---软raid选择raid5 ,并点击右侧+号,添加Raid名称为rac,选择三块硬盘勾选“建立并初始raid”---“添加”应用更改:初始化raid,中间需要几分钟时间;完成:3、配置ISCSI配置ISCSI目标:打开后,首先设置端口,默认端口是3260—“应用更改”配置ISCSI服务发起端定义—“应用更改”配置ISCSI服务目标端定义--“应用更改”打开“设置”勾选右侧启动保存并重启服务4、主机连接freeNAS首先在服务器上安装安装iscsi,iscsi-initiator-utils.x86_64 0:6.2.0.871-0.16.el5,并开启服务,使用iscsiadm连接freeNAS[root@rac1 ~]# yum install *iscsi*iscsi-initiator-utils.x86_64 0:6.2.0.871-0.16.el5root@rac2 ~]# /etc/init.d/iscsi startiscsid is stopped[ OK ] iSCSI daemon: [ OK ][ OK ]Setting up iSCSI targets: iscsiadm: No records found![ OK ][root@rac1 ~]# iscsiadm -m discovery -t sendtargets -p 192.168.10.253192.168.10.253:3260,1 iqn.2007-09.jp.ne.peach.istgt:disk0[root@rac1 ~]# iscsiadm -m node -T iqn.2007-09.jp.ne.peach.istgt:disk0 -p 192.168.10.253 -l Logging in to [iface: default, target: iqn.2007-09.jp.ne.peach.istgt:disk0, portal: 192.168.10.253,3260]Login to [iface: default, target: iqn.2007-09.jp.ne.peach.istgt:disk0, portal: 192.168.10.253,3260]: successful使用fdisk -l查看共享存储连接情况,两台机器均已连接[root@rac1 ~]# fdisk -lDisk /dev/hda: 21.4 GB, 21474836480 bytes255 heads, 63 sectors/track, 2610 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/hda1 * 1 13 104391 83 Linux/dev/hda2 14 778 6144862+ 83 Linux/dev/hda3 779 816 305235 82 Linux swap / Solaris/dev/hda4 817 2610 14410305 5 Extended/dev/hda5 817 2610 14410273+ 83 LinuxDisk /dev/sda: 42.9 GB, 42949410816 bytes64 heads, 32 sectors/track, 40959 cylindersUnits = cylinders of 2048 * 512 = 1048576 bytes查看rac节点[root@rac2 ~]# fdisk -lDisk /dev/hda: 21.4 GB, 21474836480 bytes255 heads, 63 sectors/track, 2610 cylindersUnits = cylinders of 16065 * 512 = 8225280 bytesDevice Boot Start End Blocks Id System/dev/hda1 * 1 13 104391 83 Linux/dev/hda2 14 778 6144862+ 83 Linux/dev/hda3 779 816 305235 82 Linux swap / Solaris/dev/hda4 817 2610 14410305 5 Extended/dev/hda5 817 2610 14410273+ 83 LinuxDisk /dev/sda: 42.9 GB, 42949410816 bytes64 heads, 32 sectors/track, 40959 cylindersUnits = cylinders of 2048 * 512 = 1048576 bytesDisk /dev/sda doesn't contain a valid partition table重启iscsi服务,查看存储挂载情况[root@rac1 ~]# /etc/init.d/iscsi restartLogging out of session [sid: 1, target: iqn.2007-09.jp.ne.peach.istgt:disk0, portal: 192.168.10.253,3260]Logout of [sid: 1, target: iqn.2007-09.jp.ne.peach.istgt:disk0, portal: 192.168.10.253,3260]: successfulStopping iSCSI daemon:iscsid dead but pid file exists[ OK ] iSCSI daemon: [ OK ][ OK ]Setting up iSCSI targets: Logging in to [iface: default, target: iqn.2007-09.jp.ne.peach.istgt:disk0, portal: 192.168.10.253,3260]Login to [iface: default, target: iqn.2007-09.jp.ne.peach.istgt:disk0, portal: 192.168.10.253,3260]: successful[ OK ]至此共享存储配置完成;共享存储划分分区,因为存储是做的raid5,存储容量大约在40G左右,所以划分三个主分区,作为ASM磁盘组使用,另外划分若干扩展分区,使用作为安装OCR和spfile;这里只需要在一个节点上做就可以了,因为存储是共享的。
vsphere-esxi-vcenter-server-672-storage-说明书
《vSphere 存储》Update 2修改日期:2022 年 4 月 19 日VMware vSphere 6.7VMware ESXi 6.7vCenter Server 6.7您可以从 VMware 网站下载最新的技术文档:https:///cn/。
VMware, Inc.3401 Hillview Ave. Palo Alto, CA 94304 威睿信息技术(中国)有限公司北京办公室北京市朝阳区新源南路 8 号启皓北京东塔 8 层 801/cn上海办公室上海市淮海中路 333 号瑞安大厦 804-809 室/cn广州办公室广州市天河路 385 号太古汇一座 3502 室/cn版权所有© 2009-2022 VMware, Inc. 保留所有权利。
版权和商标信息《vSphere 存储》目录关于 vSphere 存储14更新信息151存储简介16传统存储虚拟化型号16软件定义的存储型号17vSphere Storage API182传统存储型号入门20物理存储的类型20本地存储20联网的存储21目标和设备表示形式25虚拟机如何访问存储25存储设备特性26比较存储类型29支持的存储适配器30查看存储适配器信息30数据存储特性31显示数据存储信息33使用永久内存34监控 PMem 数据存储统计信息353将 ESXi 与 SAN 配合使用概览37ESXi 和 SAN 用例38将 SAN 存储与 ESXi配合使用的细节38ESXi 主机和多个存储阵列39决定 LUN 的大小和数目39使用预测性方案来决定 LUN 的大小和数目40使用自适应性方案来决定 LUN 的大小和数目40选择虚拟机位置40第三方管理应用程序41SAN 存储备份注意事项41使用第三方备份软件包424将 ESXi 与光纤通道 SAN 配合使用43光纤通道 SAN 概念43光纤通道 SAN 中的端口44光纤通道存储阵列类型44将区域分配与光纤通道 SAN 配合使用44虚拟机如何访问光纤通道 SAN 上的数据455配置光纤通道存储器46ESXi 光纤通道 SAN 要求46ESXi 光纤通道 SAN 限制46设置 LUN 分配47设置光纤通道 HBA47安装和设置步骤47N-Port ID 虚拟化48基于 NPIV 的 LUN 访问如何运作48使用 NPIV 的要求48NPIV 功能和限制49配置或修改 WWN 分配496配置以太网光纤通道51以太网光纤通道适配器51软件 FCoE 配置准则52设置软件 FCoE 的网络连接53添加软件 FCoE 适配器537从光纤通道 SAN 引导 ESXi55从 SAN 引导的优点55从光纤通道 SAN 引导时的要求和注意事项56准备从 SAN 引导56配置 SAN 组件和存储系统56将存储适配器配置为从 SAN 引导57将系统设置为从安装介质引导57将 Emulex HBA 配置为从 SAN 引导58启用 BootBIOS 提示58启用 BIOS58将 QLogic HBA 配置为从 SAN 引导598通过软件 FCoE 引导 ESXi61软件 FCoE 引导的要求和注意事项61设置软件 FCoE 引导62配置软件 FCoE 引导参数62从软件 FCoE LUN 安装并引导 ESXi63针对从软件 FCoE 引导 ESXi 主机进行故障排除639光纤通道存储最佳做法65防止出现光纤通道 SAN 问题65禁用自动主机注册66优化光纤通道 SAN 存储器性能66存储阵列性能66光纤通道的服务器性能6710将 ESXi与 iSCSI SAN 配合使用68关于 iSCSI SAN68iSCSI 多路径69iSCSI SAN 节点和端口69iSCSI 命名约定70iSCSI 启动器71关于 VMware iSER 适配器71建立 iSCSI 连接72iSCSI 存储系统类型72发现、身份验证和访问控制73错误纠正74虚拟机如何访问 iSCSI SAN 上的数据7411配置 iSCSI 适配器和存储76ESXiiSCSI SAN 建议和限制77配置适配器的 iSCSI 参数77设置独立硬件 iSCSI 适配器78查看独立硬件 iSCSI 适配器79编辑硬件 iSCSI 的网络设置79配置从属硬件 iSCSI 适配器80从属硬件 iSCSI 注意事项81查看从属硬件 iSCSI 适配器81确定 iSCSI 与网络适配器之间的关联82配置软件 iSCSI 适配器82激活或禁用软件 iSCSI 适配器83配置 iSER 适配器84启用 VMware iSER 适配器85修改 iSCSI 或 iSER 适配器的常规属性85为 iSCSI 和 iSER 设置网络86iSCSI 或 iSER 配置中的多个网络适配器87使用软件 iSCSI 配置网络连接的最佳做法88配置 iSCSI 或 iSER 端口绑定91管理 iSCSI 网络96iSCSI 网络故障排除96将巨帧与 iSCSI 配合使用96为网络连接启用巨帧97为独立硬件 iSCSI 启用巨帧97配置 iSCSI 适配器的发现地址98配置 iSCSI 和 iSER 的动态或静态发现98移除动态或静态 iSCSI 目标99配置 iSCSI 适配器的 CHAP 参数99选择 CHAP 身份验证方法100设置 iSCSI 或 iSER 适配器的 CHAP101设置目标的 CHAP102配置 iSCSI 的高级参数103配置 iSCSI 的高级参数104iSCSI 会话管理104查看 iSCSI 会话105添加 iSCSI 会话105移除 iSCSI 会话10612从 iSCSI SAN 引导107关于从 iSCSI SAN 引导的常规建议107准备 iSCSI SAN108配置独立硬件 iSCSI 适配器进行 SAN 引导108配置 iSCSI 引导设置109iBFT iSCSI 引导概览110iBFT iSCSI 引导注意事项110配置从 SAN 进行的 iBFT 引导111网络最佳做法113更改 iBFT iSCSI 引导设置113对 iBFT iSCSI 引导进行故障排除11413iSCSI 存储的最佳做法115防止出现 iSCSI SAN 问题115优化 iSCSI SAN 存储器性能116存储系统性能116iSCSI 服务器性能116网络性能117检查以太网交换机统计信息11914管理存储设备120存储设备特性120显示主机的存储设备121显示适配器的存储设备122设备扇区格式123存储设备名称和标识符124具有 NGUID 设备标识符的 NVMe 设备126将具有唯一 NGUID 的 NVMe 设备的无状态 ESXi 主机升级到 6.7 Update 2127重命名存储设备128存储重新扫描操作129执行存储重新扫描129执行适配器重新扫描130更改扫描的存储设备的数量130确定设备连接问题130检测 PDL 情况131执行计划的存储设备移除132从 PDL 情况中恢复133处理暂时性 APD 情况133验证存储设备的连接状态135设备连接问题和 High Availability136启用或禁用存储设备上的定位符 LED136擦除存储设备13615使用闪存设备137对 ESXi使用闪存设备138标识闪存虚拟磁盘138标记存储设备138将存储设备标记为闪存设备139将存储设备标记为本地139监控闪存设备140闪存设备的最佳做法140估算闪存设备的生命周期140关于虚拟闪存资源141虚拟闪存资源的注意事项141设置虚拟闪存资源142移除虚拟闪存资源142虚拟闪存高级设置143配置主机交换缓存143使用 VMFS 数据存储配置主机缓存143使用虚拟闪存资源配置主机交换缓存14416关于 VMware vSphere Flash Read Cache145针对闪存读取缓存的 DRS 支持145vSphere High Availability 支持 Flash Read Cache146为虚拟机配置 Flash Read Cache146迁移虚拟机和 Flash Read Cache14717使用数据存储148数据存储的类型148了解 VMFS 数据存储149VMFS 数据存储的版本150作为存储库的 VMFS 数据存储151在主机间共享 VMFS 数据存储152VMFS 元数据更新152VMFS 锁定机制153VMFS 上的快照格式157升级 VMFS 数据存储158解决 VMFS3 升级故障158将 VMFS3 数据存储升级到 VMFS5159了解网络文件系统数据存储159NFS 协议和 ESXi159NFS 存储准则和要求161NFS 存储的防火墙配置164使用第 3 层路由连接访问 NFS 存储165对 NFS 4.1 使用 Kerberos165设置 NFS 存储环境166配置 ESXi 主机进行 Kerberos 身份验证167创建数据存储169创建 VMFS 数据存储170创建 NFS 数据存储171创建 Virtual Volumes 数据存储172管理重复 VMFS 数据存储173挂载 VMFS 数据存储副本173增加 VMFS 数据存储容量174数据存储的管理操作175更改数据存储名称176卸载数据存储177挂载数据存储177移除 VMFS 数据存储178使用数据存储浏览器178关闭存储筛选器182设置动态磁盘镜像183在存储设备上收集 ESXi 主机的诊断信息184将设备分区设置为核心转储位置185将文件设置为核心转储位置186使用 VOMA 检查元数据一致性188使用 VOMA 检查元数据一致性191配置 VMFS 指针块缓存191获取 VMFS 指针块缓存的信息192更改指针块缓存的大小19318了解多路径和故障切换194光纤通道故障切换194基于主机的 iSCSI 故障切换195基于阵列的 iSCSI 故障切换197路径故障切换和虚拟机198在 Windows 客户机操作系统上设置超时198可插入存储架构和路径管理199关于可插入存储架构200VMware 本机多路径插件201路径选择插件和策略203VMware SATP204VMware 高性能插件206查看和管理路径209查看存储设备路径209查看数据存储路径210更改路径选择策略211更改延迟循环的默认参数211禁用存储路径212使用声明规则213多路径注意事项213列出主机的多路径声明规则214添加多路径声明规则215删除多路径声明规则218屏蔽路径219取消路径屏蔽220定义 NMP SATP 规则221虚拟机 I/O 的调度队列222编辑按文件 I/O 调度222使用 esxcli 命令启用或禁用按文件 I/O 调度22319裸设备映射224关于裸设备映射224裸设备映射的优点225RDM 注意事项和限制227裸设备映射特性227RDM 虚拟兼容模式和物理兼容模式227动态名称解析228虚拟机集群的裸设备映射228比较可用的 SCSI 设备访问模式228使用 RDM 创建虚拟机229管理映射的 LUN 的路径230具有 RDM 的虚拟机必须忽略 SCSI INQUIRY 缓存23120基于存储策略的管理233虚拟机存储策略234虚拟机存储策略的工作流234填充“虚拟机存储策略”界面235使用存储提供程序填充“虚拟机存储策略”界面236向数据存储分配标记236关于规则和规则集238创建和管理虚拟机存储策略239在 vSphere Web Client 中定义虚拟机存储策略240为基于主机的数据服务创建虚拟机存储策略243为 Virtual Volumes 创建虚拟机存储策略244为基于标记的放置创建虚拟机存储策略246编辑或克隆虚拟机存储策略247关于存储策略组件248创建存储策略组件249编辑或克隆存储策略组件250存储策略和虚拟机250将存储策略分配给虚拟机251更改虚拟机文件和磁盘的存储策略分配252检查虚拟机存储策略的合规性253为不合规虚拟机查找兼容存储资源253重新应用虚拟机存储策略254默认存储策略255更改数据存储的默认存储策略25521使用存储提供程序257关于存储提供程序257存储提供程序和数据呈现形式258存储提供程序要求和注意事项259注册存储提供程序259查看存储提供程序信息260管理存储提供程序26022使用 Virtual Volumes262有关 Virtual Volumes262Virtual Volumes 概念263Virtual Volumes264Virtual Volumes 和存储提供程序265存储容器265协议端点266将 Virtual Volumes 绑定到协议端点和解除绑定266Virtual Volumes 数据存储267Virtual Volumes 和虚拟机存储策略267Virtual Volumes 和存储协议267Virtual Volumes 架构269Virtual Volumes 和 VMware Certificate Authority270快照和 Virtual Volumes270启用 Virtual Volumes 之前271将 vSphere Storage 环境与网络时间服务器同步272配置 Virtual Volumes272注册 Virtual Volumes 的存储提供程序273创建 Virtual Volumes 数据存储274查看和管理协议端点274更改协议端点的路径选择策略275在 Virtual Volumes 数据存储中置备虚拟机275Virtual Volumes 和复制276Virtual Volumes 复制的要求277Virtual Volumes 和复制组277Virtual Volumes 和故障域278Virtual Volumes 复制工作流279复制准则和注意事项279使用 vSphere Virtual Volumes 的最佳做法280使用 vSphere Virtual Volumes 的准则和限制280存储容器置备最佳做法281实现 vSphere Virtual Volumes 最佳性能的最佳做法282Virtual Volumes 故障排除283Virtual Volumes 和 esxcli 命令283虚拟数据存储无法访问284将虚拟机迁移到虚拟卷数据存储或将 VM OVF 部署到虚拟卷数据存储时的故障284尝试向/从虚拟数据存储迁移具有内存快照的虚拟机失败28523筛选虚拟机 I/O287关于 I/O 筛选器287I/O 筛选器的类型288I/O 筛选组件288I/O 筛选器的存储提供程序289使用闪存设备与缓存 I/O 筛选器290I/O 筛选器系统要求291在 vSphere 环境中配置 I/O 筛选器291在集群中安装 I/O 筛选器291查看 I/O 筛选器和存储提供程序292配置用于缓存 I/O 筛选器的虚拟闪存资源292在虚拟磁盘上启用 I/O 筛选器数据服务293将 I/O 筛选器策略分配给虚拟机294管理 I/O 筛选器295从集群卸载 I/O 筛选器295升级集群中的 I/O 筛选器295I/O 筛选器准则和最佳实践296通过 I/O 筛选器迁移虚拟机296处理 I/O 筛选器安装故障297在单个 ESXi 主机中安装 I/O 筛选器29724存储硬件加速299硬件加速的优点299硬件加速要求300硬件加速支持状态300块存储设备的硬件加速300禁用块存储设备的硬件加速301管理块存储设备上的硬件加速301NAS 设备上的硬件加速306安装 NAS 插件307卸载 NAS 插件307更新 NAS 插件308验证 NAS 的硬件加速状态308硬件加速注意事项30925存储置备和空间回收310虚拟磁盘精简置备310关于虚拟磁盘置备策略311创建精简置备虚拟磁盘312查看虚拟机存储资源312确定虚拟机的磁盘格式313扩充精简虚拟磁盘313处理数据存储超额订购314ESXi 和阵列精简置备314监控空间使用情况315识别精简置备的存储设备315存储空间回收316VMFS 数据存储的空间回收请求317来自客户机操作系统的空间回收请求32126使用 vmkfstools323vmkfstools 命令语法323vmkfstools 命令选项324-v 子选项324文件系统选项325虚拟磁盘选项327存储设备选项333关于 vSphere 存储《vSphere 存储》介绍 VMware ESXi™和 VMware vCenter Server®提供的虚拟化和软件定义的存储技术,并说明如何配置和使用这些技术。
4.vsphere(创建配置FC存储设备)
第一部分
现任明教教主/heymo vSphere 5.0
共享存储和FC存储
教主 ESXi支持的存储选项
1. Fibre Channel
教
明 2. Fibre Channel over Ethernet
室
验 3. iSCSI using software and hardware initiators
MBps) IOps)
第一部分
现任明教教主/heymo vSphere 5.0
共享存储和FC存储
RAID介教绍主
教 RAID schemes embrace this by leveraging
明 室 multiple disks together and using copies of data
第一部分
现任明教教主/heymo vSphere 5.0
共享存储和FC存储
教主 Fibre Channel 术语
教 The Fibre Channel protocol can operate in three modes: point-to-
明 室 point (FC-P2P), arbitrated loop (FC-AL), and switched (FC-SW).
实 Fibre Channel SAN are identified by a unique 64-bit identifier
现 全 called a worldwide name (WWN). WWNs can be worldwide
安 port names (a port on a switch) or node names (a port on an Yeslab endpoint).
FreeNas磁盘共享挂载手册(win系统和vsphere) - 副本
FreeNas磁盘共享挂载手册1、在浏览器中输入FreeNas的web管理地址:如下地址:192.168.90.2102、然后依次按步骤点击“创建zovl”3、”创建zvol”,填写“名称”,输入“大小”,其余默认。
如下图所示:4、依次点击“共享—阻止(iscsi)”,然后按照“portals—initiator—授权访问—target—extent—target关联”顺序添加所必须的共享条件。
下图从portals开始,首先添加“入口站点”5、创建允许发起ISCSI的网络地址段6、添加CHAP验证的用户名和密码7、添加target(共享存储验证方式CHAP,以及允许连接的网络和监听的端口)8、添加extent(本地划分的存储设备zvol)9、验证的方式(IP,CHAP等)与创建的存储ZVOL的管理10、打开iSCSI服务,至此,在FreeNas上的操作已经完成,接下来是在终端电脑上的操作一、在windows操作系统上进行添加1、“win+R”—在文本框内输入“iscsicpl”打开iSCSI发起程序2、“发现—发现门户”输入IP,然后点击“高级”,选择验证方式并输入,然后点击确定3、此时点击“目标”选项卡,在“已发现的目标”里可以看到FreeNas共享出来的ZVOL4、选中该目标,点击“连接—高级”,选择验证方式并输入,然后点击确定5、目标的状态由“不活动”更改为“已连接”(如下图)6、此时共享磁盘已经挂载到了计算机,只需在“计算机—管理—磁盘管理”中初始化该磁盘即可使用(如下图)二、FreeNas共享磁盘挂载到Vphere虚拟化平台(通过vsphere web client挂载),FreeNas需与esxi主机在同一vlan内1、打开群集,选择要添加存储的主机2、为选择的主机添加vmkernel适配器(主机—网络—vmkernel适配器—创建)3、网络端口绑定4、为FreeNas添加iSCSI存储适配器(类似与物理机上的硬盘接口)5、添加“目标—动态发现”6、“目标—动态发现”添加完成后,重新扫描主机上的所有存储适配器,出现如下图情况:“目标—静态发现”里会出现freenas共享出来的磁盘7、此时可以看到“路径”以及“设备”选项卡里都可以看到,如下图:8、点击数据存储,在数据存储里进行添加已经挂载的磁盘注意:下面只是演示步骤,不同磁盘的CHAP验证账户和密码可能设置不同,注意区分接下来按照步骤一步一步走就可以了。
VMware vSphere 6.7 HA环境搭建V1
vSPhere 6.7 HA集群环境搭建2020年9月4日目录一、概述 (3)二、环境介绍: (3)三、网络配置: (4)四、部署过程 (5)4.1、集群配置 (5)4.2、集群配置优化 (11)4.3、存储配置 (16)4.3、创建分布式交换机(生产网络使用) (31)4.3.1、创建分布式交换机 (31)4.3.2、在分布式交换机上添加和管理主机 (34)4.4、创建虚拟机,并设置网络 (38)五、HA测试 (40)5.1、迁移测试 (40)5.2、模拟物理故障测试 (43)六、问题记录 (46)一、概述本文主要介绍了针对ESXi 6.7 环境下HA的搭建与配置,具体介绍了网络的规划、集群的创建、存储的配置、分布式交换机的配置等。
本文全部采用虚拟机环境进行测试,但安装部署程和生产环境基本一致。
二、环境介绍:vCenter(192.168.1.5 ESXi内一台虚拟机):管理IP:192.168.1.78ESXi-01(192.168.1.7 ESXi 内的虚拟机):管理IP:192.168.1.201ESXi-02(192.168.1.7 ESXi 内的虚拟机):管理IP:192.168.1.202iSCSI存储(192.168.1.7 ESXi 内的虚拟机):说明:存储采用FreeNAS 进行搭建管理IP:192.168.1.203三、网络配置:vCenter:管理IP:192.168.1.78ESXi01:管理网络IP:192.168.1.201vMotion IP:192.168.10.201存储网络IP:192.168.100.201(iscsi)生产网络:192.168.1.0/24ESXi02:管理网络IP:192.168.1.202vMotion IP:192.168.10.202存储网络IP:192.168.100.202(iscsi)生产网络:192.168.1.0/24说明:以上esxi-01 esxi-02 freenas 全部为192.168.1.7 esxi 上的虚拟机。
Esxi下虚拟机共享磁盘
技术文档
Vmware ESXi4.1 共享磁盘
一. 二. 三.
3.3 编辑虚拟机的 VMX 文件.............................................................................................................. 4
3.4 给虚拟机添加硬盘......................................................................................................................... 5
3.1 开户主机的 SSH 服务 ................................................................................................................... 2
3.2 配置共享磁盘................................................................................................................................. 4
使用 Vsphere Client 登录到主机,选中主机,选择右侧配置标签中的“配置”标签,再选择“安全配置文 件”,然后点击右上角的“属性”按钮,如图一。
VMware vSphere配置iSCSI及NFS存储
VMware vSphere 4.1虚拟化学习手册8:配置iSCSI及NFS存储上一篇([VMware vSphere 4.1虚拟化学习手册7:存储基础] )介绍了VMware vSphere存储,这里看看如何配置iscsi及NFS共享存储。
FC SAN的配置和iscsi 配置方法基本一致,这里由于环境限制不做介绍。
测试环境如下:•两台esx Server•一台windows 2008做vCenter•freenas做iscsi服务器iSCSI存储简介:iSCSI 是把SCSI指令集封装在以太网协议中,通过现有的IP网络来传输存储数据;iSCSI存储一般分为服务器端(Target)和客户端连接器(Initiator),其中Initiator可以分为硬件和软件2种,硬件Initiator一般称作iSCSI HBA 卡,因为SCSI指令集的装载通过HBA卡完成,所以硬件Initiator比软件Initiator效率更高,并且可显著降低iSCSI对主机 CPU的使用率;ESX已内置软件Initiator,并且也支持iSCSI HBA卡(具体可参考vSphere硬件兼容性网站)。
这里我们使用的是FreeNAS作为iSCSI服务器的软件iSCSI方式。
VMware vSphere中配置iSCSI需要建立一个单独的存储网络来走存储流量,参考[VMware vSphere 4.1虚拟化学习手册5:虚拟交换机vSwitch]首先添加VMkernel,这个网络是专门用来走iSCSI和NFS存储数据的选择VMkernel使用的vSwitch设置VMkernel使用的名称及是否用作vMotion配置VMkernel的IP地址及网关确认添加VMkernel配置完成配置之后再vSwitch0下多了一个VMkernel的虚拟端口。
接下来添加iscsi存储器开启软件iscsi功能在动态发现中输入iscsi服务器地址,如果只是要加入iscsi服务器中的某块硬盘可以选择静态发现添加成功之后就可以看到新增了一个iscsi software adapter的存储适配器及这块适配器下的两个iscsi硬盘接下来添加存储器,也就是我们存储虚拟机的存储空间选择磁盘/LUN选择可用的iSCSI磁盘显示选择的磁盘状况为数据存储起一个名称选择块大小及容量确认添加添加完成之后再存储数据中就可以看到新增加的iscsi空间了接着在看看如何配置NFS存储关于NFS的介绍可以参考:[Redhat Linux下NFS的配置及操作] 再添加一个存储控制器,选择网络文件系统输入服务器地址,nfs的目录,再给数据存储起个名称确认配置配置完成之后可以在数据存储中看到新增的nfs1在同一个数据中心中,只要一台服务器添加了iscsi共享存储,其他服务器会自动添加这些iscsi共享存储,也就是只需要添加一次就可以了。
体验vSphere 6之5-添加虚拟交换机及iSCSI存储
体验vSphere 6之5-添加虚拟交换机及iSCSI存储7 添加虚拟交换机及iSCSI存储虚拟机的容错的基础是群集,而要管理与使用群集,需要有"管理网络冗余"、"至少两个共享存储磁盘"。
接来下,为每台ESXi主机的管理网络添加冗余网卡,并为ESXi主机添加网络存储磁盘。
(1)在vSphere Web Client管理界面中,在左侧选中一台主机,在右侧选择"管理→网络自己虚拟交换机",在列表中选择系统己有的虚拟交换机,单击""按钮,如图7-1所示。
图7-1 管理虚拟交换机(2)在"分配的适配器"对话框中,当前可以看到有一个网卡,单击"+"按钮,为交换机添加另一个网卡。
(3)在弹出的"将物理适配器添加到交换机"对话框中,从"网络适配器"列表中,选择要添加的网卡,在此选择vmnic1,这是ESXi主机的第2块网卡,在前期的规划中,我们将1、第2网卡用做ESXi的管理网卡。
如果要添加多个网卡,可以按住Shift键选择。
(4)返回到"分配的适配器"对话框,可以看到添加的网卡。
(5)添加之后返回到vSphere Web Client管理控制台,如图7-5所示,可以看到当前的虚拟交换机已经有两个网卡。
图7-5 虚拟交换机在我们设计实验环境时,为ESXi主机添加了4个网卡,此时可以将剩余的两个网卡添加为虚拟交换机,主要步骤如下。
(1)单击""按钮,添加主机网络,如图7-6所示。
图7-6 添加主机网络(2)在"选择连接类型"对话框,选择"VMkernel网络适配器",如图7-7所示。
如果新添加的交换机只需要处理虚拟机网卡流量,则可以选择"标准交换机的虚拟机端口组"。
vSphere使用Nas做共享存储
v S p h e r e使用N a s做共享存储Document number:NOCG-YUNOO-BUYTT-UU986-1986UTvSphere使用FreeNas做共享存储FreeNas是一款开源免费的NAS软件,其具有提供iscsi存储的功能,所以可以做为共享存储使用。
下面介绍利用FreeNas作为vSphere共享存储的方法。
硬件:一台PC机,至少3个SATA接口,3块硬盘,其中一块安装FreeNas用,另外2块作为存储硬盘;千兆网卡2块目标:使用两块2TSATA7500转硬盘,采用RAID1配置,做成iSCSI存储,提供给vSphere作为共享存储使用。
1,准备工作:1)PC级装上3块硬盘,其中2TSATA盘作为存储使用,另外一块硬盘只要大于2G就可以了,用于安装FreeNas系统2)安装好FreeNAS,按照提示一步一步安装即可,要注意的是把系统安装在那个小的硬盘上面,安装了FreeNAS系统的硬盘不能再作为存储使用。
3)配置好FreeNAS的网络,开启ssh服务,iSCSI服务Services->Core中集中管理各种核心服务2,创建卷,菜单system->storage->Volumns->VolumnManager3,添加过程中出现错误Error:Volumecreationfailed:"geom:Can'tstoremetadataon/dev/ada2:Operationnotperm itted.,"这个主要是因为使用的两块硬盘,曾经作为FreeNas的卷使用过,硬盘上有上次做Raid的信息,需要手工删除磁盘上Raid信息。
[root@freenas]~#gmirrorlistGeomname:gm0mirrorState:DEGRADEDComponents:2Balance:loadSlice:4096Flags:NONEGenID:1SyncID:6ID:Providers::mirror/gm0mirrorMediasize:Sectorsize:512Stripesize:4096Stripeoffset:0Mode:r0w0e0Consumers::ada2Mediasize:Sectorsize:512Stripesize:4096Stripeoffset:0Mode:r1w1e1State:ACTIVEPriority:1Flags:NONEGenID:1SyncID:6ID:[root@freenas]~#gmirrorforgetgm0mirror[root@freenas]~#gmirrorremovegm0mirrorada2[root@freenas]~#gmirrorlist这时应该是没有gmirror的信息了4,再次执行1的操作,成功后在VolumnView中可以看到5,下面进行iSCSI的设置1)建立FileExtents现通过ssh或控制台登陆到FreeNAS,到/mnt/voliscsi/目录下,建立一个空文件#touchiscsiextentSystem->Services->iSCSI->FileExtents->AddFileExtents2)建立InitiatorsSystem->Services->iSCSI->Initiators->AddInitiator3)建立PortalsSystem->Services->iSCSI->Portals->AddPortal4)建立TargetSystem->Services->iSCSI->Targets->AddTarget5)把Target和Extent关联起来System->Services->iSCSI->Targets/Extents->Target/Extent到此FreeNAS侧的iSCSI已经设置好了,下面在vSphere中添加iSCSI存储6,打开vSphere,选择主机,选择“配置”->“存储适配器”7,添加软iSCSI适配器8,添加后,选择iSCSI适配器9,点击“属性”动态发现->添加Iscsi服务器输入框填写FreeNAS服务器的IP,点击“OK”按钮,会提示重新扫描,点击“OK”10,选择“存储器”11,选择“添加”存储器,选择磁盘/LUN,下一步12,在存储器一览可以看到可以添加的存储设备,选择在步骤9种添加的iscsi设备即可。
NAS教程:手把手教您3分钟安装UNRAID系统并设置硬盘共享文件Docker容器APP
NAS教程:手把手教您3分钟安装UNRAID系统并设置硬盘共享文件Docker容器APP2019-12-18 10:58:24前言大家好,俺又来了!久等了!UNRAID是一款类似NAS的操作系统,和PVE、ESXI很像,但又很不同。
在我使用了大半个月后,已经完美搭建出自己的家用NAS服务器,我觉得非常好用,所以推荐给大家。
老规矩,废话少说,本文都是干货,欢迎大家提前点赞、点收藏,谢谢大家的支持!下面这篇关于UNRAID的介绍,和我的体验全过程,已经写得非常详细了,没有看过的朋友,一定要看一下(3分钟看完):NAS换上了UNRAID系统,J3455绝配!解决了Jellyfin硬件加速解码,虚拟群晖DSM#2019值得总结#年度征稿重磅上线!分享你的年度好物清单、购物心得、收藏好物……赢海量金币、抽限定惊喜福袋,还有万元大奖等你来拿!详情戳这里了解前言哈喽,我是阿文菌!俺又来了!肯定有人看到标题会产生疑问?UNRAID是什么东东?能做什么?1、相信关注过b站up主司波图和VedioTalk都肯定有所阿文菌| 赞757 评论469 收藏3k查看详情UNRAID,不仅可以快速的组磁盘阵列、快速的创建共享文件夹、快速的使用DOCKER容器跑各种服务,还可以创建各种各样的虚拟机,而且占用率极低,使用体验比PVE好。
但是由于整个系统都是英文版,所以特别出了这篇教程,希望能帮助到一些朋友。
英文版不可怕,很多NAS系统,就算中文的,也一样有人不会用,其实UNRAID非常的简单的,上手比群晖还要容易,大家不要放弃哦!而且还可以用浏览器的自动翻译,也可以快速的明白很多功能的意义。
我使用的是6.6.6 / 6.7.2版本来做为教程演示,其它版本基本上都相同,大家跟着我的操作来,即可快速上手UNRAID!全文,我会用最精简,最高效的方式设置,大家不懂的跟着我的设置先操作一遍!蜗牛星际的J1900、暴风云酷播二代的J3455处理器,以及几乎所有x86架构的旧电脑,新电脑,都支持用UNRAID,大家可以放心使用!只需准备一个U盘即可,可以简单理解为,U盘就是UNRAID 的系统盘。
vSphere 4.1存储管理技巧
在本文中,TechTarget中国特约作者张冀川将讲述vSphere4.1的存储管理技巧,包括使用ESXi主机本地磁盘、配置管理vSphere 4.1集群文件系统VMFS以及存储多路径使用问题。
启用远程支持模式为查看ESXi主机相关信息,暂时开启远程支持模式,允许SSH客户端远程登录ESXi主机。
在服务器本地窗口,按F2键,输入root用户的密码(初始密码为空),进入系统定制界面,选择“Troubleshooting Options”。
选定“Enable Remote Tech Support(SSH)”,然后按回车键,启用Remote TSM,这样就可以通过SSH客户端远程访问ESXi主机了。
ESXi主机本地磁盘使用主流的机架和刀片服务器本地通常都配置了两块及以上的硬盘,服务器主板集成的Raid控制器对本地硬盘数据提供保护。
ESXi安装在服务器本地硬盘通常只占用很少的磁盘件上传到服务器本地存储的方式使用大量剩余的本地磁盘空间。
利用vSphere Client登录到ESXi主机后,选择“配置”选项卡“硬件”资源中的“存储器选项,选择本地存储“localdisk”,在弹出的右键菜单中选择“浏览数据存储”。
在打开的数据浏览器窗口,我们可以选择“新建文件夹”创建OS目录,然后选择“上载”按钮将操作系统或vCenter Server镜像文件上传到OS目录下。
VMFS种文件系统,和Linux下的EXT3、Windows下的NTFS文件系统类似,创建该文件系统时需要选择块大小;在文件系统的使用过程中可能需要对其进行扩充,以下对这两部分内容进行简单的介绍。
块大小选择如下图所示,添加存储器的磁盘/LUN格式化步骤,需要选择块大小,可供选择的块大小包括:1MB、2MB、4MB和8MB。
不同的块大小并不会影响磁盘的性能,只会影响到卷上一个文件所占用的最小磁盘空间,以及支持的最大文件大小。
通常来讲,一个文件至少占用一个块,所以一个文件至少要占用相当于一个块尺寸的磁盘空间;而一个大文件所占用的磁盘空间总量等于它所使用的块的数量与尺寸的乘积。
VSPHERE环境使用虚拟共享磁盘的虚拟机迁移v0
VSPHERE环境使用虚拟共享磁盘的虚拟机迁移v0.1版本控制分发控制一、配置信息 (4)二、迁移计划 (6)三、迁移方法一 (6)1、将两台虚拟机全部关机,在开机情况下是无法完成带共享盘虚拟机的迁移的: (6)2、将共享盘从两台虚拟机中删除,但不要删除磁盘文件,将共享盘和虚拟机脱离关联 (7)3、进行虚拟机迁移 (8)4、将共享盘拷贝到目标datastore (10)5、给虚拟机关联共享磁盘 (11)6、开机检查系统 (13)7、修改完毕后重启系统 (15)四、迁移方法二 (15)1、节点全部关闭 (15)2、删除一个节点共享磁盘 (17)3、迁移虚拟机 (18)4、设置共享盘 (21)5、开机检查系统 (24)一、配置信息两台使用共享盘的虚拟机,rac-1和rac-2,共同使用的一块20G和一块100G的盘做为共享盘:rac-1共三块盘,硬盘2和硬盘3为共享盘:rac-2共三块盘,硬盘2和硬盘3为共享盘:二、迁移计划共享盘目前所在datastore为SITE1-datastore1,需要将共享盘迁移到SITE4-datastore4:三、迁移方法一1、将两台虚拟机全部关机,在开机情况下是无法完成带共享盘虚拟机的迁移的:2、将共享盘从两台虚拟机中删除,但不要删除磁盘文件,将共享盘和虚拟机脱离关联不要勾选从数据存储删除文件的复选框:共享盘删除后,只留下非共享盘:更换虚拟机存储,将虚拟机迁移到目标datastore:迁移后非共享盘已经迁移到了目标datastore:4、将共享盘拷贝到目标datastore虚拟机迁移到目标datastore后,共享盘还是在原位置没有变选中需要移动的两个共享磁盘文件,迁移移至:迁移一个目标位置存储共享磁盘文件,位置可以根据需要选择:任务开始后可以看到进度:迁移过来的共享磁盘文件:5、给虚拟机关联共享磁盘选择添加现有硬盘找到共享磁盘文件位置,注意添加顺序添加完后默认是没有共享的,将其修改为多写入器6、开机检查系统该RAC 使用的是UDEV 方式通过磁盘的WWID 绑定设备名:[root@rac1 ~]# cat /etc/udev/rules.d/99-oracle-asmdevices.rulesKERNEL=="sdb",SUBSYSTEM=="block",PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$name",RESULT=="36000c29ed7d1bed12170c301c3abd280",SYMLINK+="asm-grid1",OWNER="grid",GROUP="asmadmin",MODE="0660"KERNEL=="sdc",SUBSYSTEM=="block",PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$name",RESULT=="36000c29ca32134da2162f0441f7fd06b",SYMLINK+="asm-grid2",OWNER="grid",GROUP="asmadmin",MODE="0660"通过fdisk –l可以看到这两块盘sdb和sdc:检查这两个盘的WWID是否变更:[root@rac1 ~]# /usr/lib/udev/scsi_id -g -u -d /dev/sdb36000c294fa19b3d77d27b26020585213[root@rac1 ~]# /usr/lib/udev/scsi_id -g -u -d /dev/sdc36000c2924b0fe4d46055248a1efe0f05通过检查发下两个共享盘的WWID发生了变化,调整UDEV配置文件:[root@rac1 ~]# cat /etc/udev/rules.d/99-oracle-asmdevices.rulesKERNEL=="sdb",SUBSYSTEM=="block",PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$name",RESULT=="36000c294fa19b3d77d27b26020585213",SYMLINK+="asm-grid1",OWNER="grid",GROUP="asmadmin",MODE="0660"KERNEL=="sdc",SUBSYSTEM=="block",PROGRAM=="/usr/lib/udev/scsi_id -g -u -d /dev/$name",RESULT=="36000c2924b0fe4d46055248a1efe0f05",SYMLINK+="asm-grid2",OWNER="grid",GROUP="asmadmin",MODE="0660"检查另一节点磁盘WWID,要和上一节点的磁盘WWID相同,并修改UDEV配置文件:[root@rac2 ~]# /usr/lib/udev/scsi_id -g -u -d /dev/sdb36000c294fa19b3d77d27b26020585213[root@rac2 ~]# /usr/lib/udev/scsi_id -g -u -d /dev/sdc 36000c2924b0fe4d46055248a1efe0f05[root@rac2 ~]#7、修改完毕后重启系统数据库启动正常四、迁移方法二1、节点全部关闭关闭数据库集群关闭操作系统2、删除一个节点共享磁盘不要删除共享磁盘文件:只删除一个节点的共享盘,另一个节点的共享盘不要动。
虚拟化vsphere教程
2.安装vCenter服务器
安装条件:64位系统(推荐windows2008 64位) 安装程序:vCenter server 程序链接:\\172.16.8.251\虚拟机资料\vmware\vSphere\安装包 安装方法:默认安装即可 目前公司安装的vCenter所用的操作系统是linux,在网上下载的OVF模板。
VM
VM
VM
VM
VM
ESX 5 主机
vCenter client Windows xp
网络
vCenter server IP:172.16.0.132 Linux操作系统
IP SAN 存储阵列
实验步骤介绍
1、在4台DELL R720安装ESXI主机 2、安装vCenter服务器 3、ESXI主机及vCenter服务器管理 4、创建虚拟机、网络及存储配置 5、群集配置 6、vMotion、热备实验 7、实体服务器转换虚拟机实验
vCenter介绍
vCenter Server 4.1 - 虚拟化 IT 环境的集中控制点
供 vSphere 管理员使用的主要工具
提供集中式管理 vCenter 可提供:
清单、拓扑和主机配置管理 轻松部署、监视性能,以及创建 用户和权限
统一物理资源以便在虚拟机之间共享
功能介绍
>下一步直到添加成功。
PS:本次实验使用的是一个虚拟的iscsi软件( diswind),可以虚拟成一个
IPSAN。软件地址: \\192.168.2.150\云计算小组学习资料\主流虚拟化
软件\vmware\vSphere\软件\SAN虚拟化软件 内附教程
4、创建虚拟机、网络及存储配置
vSphere环境下iSCSI存储的最佳实践
vSphere环境下iSCSI存储的最佳实践下面罗列的一些关于iSCSI存储系统的最佳实践,有助于我们在使用过程中获得最佳的性能和可用性。
●iSCSI存储系统的性能表现与网络的健康程度和利用率密切相关,为了追求最佳的效果,准备一个独立的网络环境,完全隔离iSCSI数据流是必要的。
●每台ESX server主机只能配置一个软件initiator。
为iSCSI连接配置vSwitch时,可以利用多个物理网络端口形成冗余结构。
如果想正确的配置多路径,还要确保VMkernel接口与vSwithc中的网络端口有正确的绑定关系。
●确保iSCSI vSwitch的网络端口与一个独立的网络交换机连接,以降低网络单点故障所带来的影响。
●vSphere支持存储协议中使用jumbo frames(巨帧),但是jumbo frames的优势只在一些非常特殊的环境中才能发挥出来,比如I / O的尺寸非常大的数据流。
此外,后端的存储系统必须能够处理较大的吞吐量,比如RAID组中磁盘的数量大于等于15个,否则我们将看不到任何效果。
如果I / O尺寸太小或者磁盘数量不够,那么使用jumbo frames的效果会很差,甚至感觉不到任何性能的提升。
在某些环境下,jumbo frames还可能会造成性能的衰减,所以在启用jumbo frames 之前和之后做两次性能测试,比较jumbo frames产生的影响是必要的。
还有一个需要注意的问题是,整个连接环节中,每一个端到端的组件都必须支持并且打开jumbo frames功能,包括物理网络端口和网络交换机、vSwitch(虚拟交换机)、VMkernel端口、以及iSCSI目标端。
其中任何一个环节没有设置jumbo frames,jumbo frames都不会起作用。
●使用最新的Paravirtual SCSI总线控制器(PVSCSI)作为虚拟机的磁盘控制器,可以带来最大的吞吐带宽和性能,超过传统上常用的标准LSI Logic以及BusLogic总线控制器。
vsphere VSA和存储DRS区别
vSphere 5发布会上VMware发布了不少新东西,挑重点说下。
【VSA】我认为很重要的一个产品是vSphere Storage Appliance,它可以在中小企业(一般只有2-3个主机和20-30台虚拟机的环境),没有硬件共享存储(例如NAS/FC SAN)的情况下,利用每台主机的本地存储组成虚拟的共享存储,并实现HA、DRS和VMotion。
这对中小企业是非常有竞争力的呀!虽然说Hyper-V免费而且支持Live Migration(相当于vMotion),但是如果没有外部共享存储,Cluster就构建不起来;而外部存储通常都价格不菲。
【Storage DRS】另外一个重要的内容是存储DRS。
我觉得这个功能是vSphere5 中最酷最棒的一个新功能。
这个功能将datastore整合了起来,形成一个一个的datastore群集。
外部的存储不再以独立的datastore为单位,而是组成不同级别的存储池,这个概念很像主机的群集的DRS。
存储DRS和主机的DRS类似,有四个关键特性∙VM的初始位置的定位∙迁移推荐(全自动/手动)∙绑定规则∙维护模式初始位置的定位就是根据各个存储的当前利用率和性能指标,将VM放置在较空闲的datastore上。
迁移推荐就是根据存储的当前利用率,将VM从繁忙的datastore(通过SVMotion)迁移到空闲的存储上。
与主机DRS类似,也可以设置从全手动到全自动等多个不同的级别。
绑定规则是指将VM和特定的datastore绑定。
维护模式也和主机群集类似,当某个datastore需要维护的时候,可以将其转入维护模式,该Datastore上的所有VM都会迁移到其他datastore上去,这样在这个存储设备因为需要维修或升级而关机的时候,其上的VM不会有一分钟的宕机时间。
你可以将速度快、带宽大、响应迅速的高阶存储上的datastore组织在一起,形成高性能池(例如取名为金牌存储池),将速度较慢的存储上的datastore组织在一起,构成低性能池(比如取名为铜牌存储池)。
全新vSphereStorage Appliance –“适合所有企业的共享存储
这款革命性软件能够提供共享存储功能, 却不像共享存储那么昂贵和复杂
7
Storage Appliance 基础知识
8
vSphere Storage Appliance — 适合所有企业的共享存储
什么是 VSA?
超越 VSA
如果您日后选择增加共享存储硬件,可以使用 Storage vMotion无中断地将数据转移到新的存储硬件上
13
许可和包装
14
vSphere Storage Appliance — 许可和包装
许可 包装
vSphere Storage Appliance
提供共享存储功能,却不像共享存储 硬件那么昂贵和复杂
+
vSphere Essentials Plus 与 vSphere Storage Appliance
vSphere Storage Appliance 按实例数量授予
许可(类似于 vCenter Server)
每个 VSA 实例最多支持 3 个节点 VSA 部署至少需要两个节点
vSphere Storage Appliance 在与 vSphere Essentials Plus 一起购买时可享受折扣价
3
跨服务器节点 建立存储集群
12
vSphere Storage Appliance — 详细信息
兼容性 与 vSphere 5 兼容
可扩展性
通过增加主机的内部存储来增加容量(不能使用 SAN、 NAS、JBOD 等外部磁盘容量)
存储保护
跨节点的 RAID 1(镜像)数据保护 每个节点中的 RAID 5 保护(分布式奇偶校验)
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
v S p h e r e使用N a s做共
享存储
Document number:NOCG-YUNOO-BUYTT-UU986-1986UT
vSphere使用FreeNas做共享存储FreeNas是一款开源免费的NAS软件,其具有提供iscsi存储的功能,所以可以做为共享存储使用。
下面介绍利用FreeNas作为vSphere共享存储的方法。
硬件:一台PC机,至少3个SATA接口,3块硬盘,其中一块安装FreeNas用,另外2块作为存储硬盘;千兆网卡2块
目标:使用两块2TSATA7500转硬盘,采用RAID1配置,做成iSCSI存储,提供给vSphere作为共享存储使用。
1,准备工作:
1)PC级装上3块硬盘,其中2TSATA盘作为存储使用,另外一块硬盘只要
大于2G就可以了,用于安装FreeNas系统
2)安装好FreeNAS,按照提示一步一步安装即可,要注意的是把系统安装
在那个小的硬盘上面,安装了FreeNAS系统的硬盘不能再作为存储使
用。
3)配置好FreeNAS的网络,开启ssh服务,iSCSI服务
Services->Core中集中管理各种核心服务
2,创建卷,菜单system->storage->Volumns->VolumnManager
3,添加过程中出现错误
Error:Volumecreationfailed:"geom:Can'tstoremetadataon/dev/ada2:Operationnotperm itted.,"
这个主要是因为使用的两块硬盘,曾经作为FreeNas的卷使用过,硬盘上有上次做Raid的信息,需要手工删除磁盘上Raid信息。
[root@freenas]~#gmirrorlist
Geomname:gm0mirror
State:DEGRADED
Components:2
Balance:load
Slice:4096
Flags:NONE
GenID:1
SyncID:6
ID:
Providers:
:mirror/gm0mirror
Mediasize:
Sectorsize:512
Stripesize:4096
Stripeoffset:0
Mode:r0w0e0
Consumers:
:ada2
Mediasize:
Sectorsize:512
Stripesize:4096
Stripeoffset:0
Mode:r1w1e1
State:ACTIVE
Priority:1
Flags:NONE
GenID:1
SyncID:6
ID:
[root@freenas]~#gmirrorforgetgm0mirror
[root@freenas]~#gmirrorremovegm0mirrorada2
[root@freenas]~#gmirrorlist
这时应该是没有gmirror的信息了
4,再次执行1的操作,成功后在VolumnView中可以看到
5,下面进行iSCSI的设置
1)建立FileExtents
现通过ssh或控制台登陆到FreeNAS,到/mnt/voliscsi/目录下,建立一个空文件#touchiscsiextent
System->Services->iSCSI->FileExtents->AddFileExtents
2)建立Initiators
System->Services->iSCSI->Initiators->AddInitiator
3)建立Portals
System->Services->iSCSI->Portals->AddPortal
4)建立Target
System->Services->iSCSI->Targets->AddTarget
5)把Target和Extent关联起来
System->Services->iSCSI->Targets/Extents->Target/Extent
到此FreeNAS侧的iSCSI已经设置好了,下面在vSphere中添加iSCSI存储6,打开vSphere,选择主机,选择“配置”->“存储适配器”
7,添加软iSCSI适配器
8,添加后,选择iSCSI适配器
9,点击“属性”
动态发现->添加
Iscsi服务器输入框填写FreeNAS服务器的IP,点击“OK”按钮,会提示重新扫描,点击“OK”
10,选择“存储器”
11,选择“添加”存储器,选择磁盘/LUN,下一步
12,在存储器一览可以看到可以添加的存储设备,选择在步骤9种添加的iscsi设备即可。