Nutanix超融合平台架构介绍

合集下载

Nutanix 超融合平台POC测试报告

Nutanix 超融合平台POC测试报告

Nutanix 超融合平台POC测试报告目录目录 (2)1前言 (4)1.1测试背景 (4)1.2测试目的 (4)1.3测试环境 (4)1.4测试项目汇总 (6)1.5测试总结 (6)2Nutanix开箱易用的快速部署和扩展 (8)2.1使用Foundation快速部署vSphere&CVM (8)2.2快速初始化配置 (9)2.3Prism管理控制台界面易操作 (11)2.4Prism Central多集群管理界面 (11)2.5直观和丰富的报表功能 (11)2.6快速备份和恢复 (12)2.7演示CLI的易用性 (14)2.8硬件远程维护 (15)2.9其他Nutanix软件测试 (15)2.10小结 (16)3Nutanix超融合架构和传统SAN架构的性能对比测试 (17)3.1虚拟机vMotion对比测试 (17)3.2虚拟机Storage vMotion对比测试 (19)3.3虚拟机模版部署对比测试 (19)3.4小结 (19)4Nutanix冗余测试 (20)4.1CVM冗余测试 (20)4.2电源冗余测试 (22)4.3链路冗余测试 (23)4.4节点冗余测试 (24)4.5磁盘冗余测试 (26)4.6小结 (26)5压力测试 (27)5.1Diagnostics 测试 (27)5.2IOMeter对比测试 (28)5.3小结 (30)6横向扩展性测试 (31)6.1小结 (35)7Acropolis测试 (36)7.1KVM中管理地址VLAN修改 (36)7.2KVM中CVM地址VLAN修改 (36)7.3迁移vSphere虚拟机到KVM (36)7.4小结 (43)8应用测试 (44)8.1Loadrunner对比测试 (44)8.2小结 (44)9Nutanix常用功能点测试 (45)9.1Cluster SAICMotor -- 显示配置集群管理地址 (45)9.2Update Profile -- 更新用户信息 (45)9.3Change Password -- 更改用户登录口令 (46)9.4REST API Explorer -- 查询所有Rest API接口 (46)9.5Download nCLI -- 下载nCLI (47)9.6Download Cmdlets Installer -- 下载并安装windows Cmdlets工具包 (48)9.7About Nutanix -- 查询Nutanix版本以及license信息 (49)9.8Support Portal -- 打开技术支持中心网站 (50)9.9Help -- 打开文档中心网站 (50)9.10Health Tutorial -- 集群健康检查功能演示 (51)9.11Nutanix Next Community -- 打开Nutanix社区网站 (51)9.12Licensing -- 更新集群License (52)9.13Authentication Configuration -- 添加AD域管理验证 (53)9.14Role Mapping (53)9.15Create User -- 创建用户 (54)9.16SMTP Server -- 配置邮件服务器地址 (55)9.17Alert Email Configuration -- 配置告警邮件 (55)9.18Alert Policies -- 告警策略配置 (56)9.19Filesystem Whitelists -- 文件系统白名单 (57)9.20Upgrade Software (57)9.21Welcome Banner -- 自定义欢迎信息或者免责声明等 (59)9.22Name Server -- 配置Nutanix的DNS服务器地址 (59)9.23Management Servers -- 制定vSphere管理地址URL (60)9.24NTP Servers -- 配置NTP服务器 (60)9.25小结 (60)1前言1.1测试背景<公司介绍>随着业务的不断增长,在新一代的信息化建设中,具备横向扩展、快速部署、易管理等特征的解决方案逐渐成为标准,并被越来越多的企业所认可。

Nutanix超融合基础架构解决方案:可支援三大虚拟化平台

Nutanix超融合基础架构解决方案:可支援三大虚拟化平台

以自身獨有的分散式檔案系統為基礎,結合虛擬化平臺,Nutanix 將企業IT環境所需的運算與儲存資源,凝縮在NX-3050這臺2U、4節點的應用伺服器中,用戶可選擇搭配VMware、微軟Hyper-V 或KVM等3種虛擬平臺,以VM為核心來配置與運用硬體資源,並能藉由Scale-Out擴充能力,一次以一個節點為單位逐步擴展效能與容量。

可快速完成IT基礎設施的建置Nutanix稱NX系列應用伺服器是虛擬計算平臺(Virtual Computing Platform)產品,我們可以理解為這是在一個設備平臺上,提供了IT應用所需的計算與儲存資源,並且是透過虛擬平臺Hypervisor以VM的型式來配置與運用硬體資源。

這種將計算、儲存等基礎設施功能融合於一臺設備、並以VM為中心來提供應用需求的產品,便是典型的超融合基礎架構(Hyper-Converged Infrastructure)。

NX應用伺服器出廠時,可按用戶需求由Nutanix原廠或經銷商協助完成基本的叢集設定與Hypervisor部署,用戶端只需花費少許時間進行基本環境參數設定,很快便可開始使用NX系列應用伺服器,以VM型式向前端使用者交付需要的資源。

除了以VM型式提供資源外,Nutanix應用伺服器還可透過底層的分散式檔案系統,提供跨節點資料鏡像、分層儲存,以及壓縮、重複資料刪除、快照、Clone與遠端複製等功能,用戶無需另外尋找第三方解決方案,依靠Nutanix應用伺服器本身,便能提供企業儲存必要的資料保護、I/O加速與資料服務功能。

提供多樣化的產品組合Nutanix提供了多種軟、硬體組態產品組合,硬體部份包括NX-1000、NX-3000、NX-6000、NX-7000、NX-8000與NX-9000等一共6個應用伺服器系列,所有機型都是採用2U高度機箱,其中1000與3000系列是2U/4節點的高密度組態,6000與9000系列是2U/雙節點,至於7000與8000系列則是2U/單節點的組態。

Nutanix 结构简介

Nutanix 结构简介

Microsoft Storage Spaces on Dell:•Existing Microsoft customers, hosters, VDI environments, and Test & Dev environments•Cheap and deep storage•Small and low-cost file serverVMware vSAN on Dell:•Existing VMware customers (primarily virtualization admins), VDI environments, Test & Dev environments•Simplicity of managementDell Nutanix solution:•Targeted at virtualization administrators•Simplicity of deployment and management•VDI environments•Heterogeneous hypervisorsDell-Nexenta solution:•Software based file storage•Customers who want ZFS based storageCaringo:Archival and lifecyle management of object storeCeph:Advanced private cloud, public cloudUsers looking to add scalable storage to their environmentDell Hadoop/Big Data solution:Users with big data and analytics needsDell OpenStack-powered cloud solution:Advanced private cloud, public cloudDell SUSE and Red Hat solutions:Enterprise-grade private cloud for mid-tier application and cloud storageRedaptIaaS Cloud RA:Small-Medium private cloud with Dell Storage SC2801.Nutanix分布式文件系统Nutanix分布式文件系统(NDFS) 是Nutanix虚拟计算平台的核心。

Nutanix超融合平台双活与灾备技术介绍

Nutanix超融合平台双活与灾备技术介绍
Figure 11-37. DR Construct Mapping
需要重点指出的是,我们不仅可以简单的就可以将一整个容器(Container)进行保护,还可以提供针对单个虚拟机或文件级的更加细致的保护。
Replication Lifecycle
Nutanix通过Cerebro实现数据的复制。Cerebro服务分为Cerebro Master和Cerebro Slave。Cerebro Master由动态选举产生,除Cerebro Master节点之外的CVM中,均运行Cerebro从属服务(Cerebro Slaves)。一旦“Cerebro Master”所对应的CVM宕机,新的Master将被自动选举产生。
.Replication Topologies
Implementation Constructs
Replication Lifecycle
Global Deduplication
Replication Topologies
一直以来,有几种主要的复制网络拓扑:点对点(Site to site),菊花链(hub and spoke),全网状/部分网状(full and/or partial mesh)。相对于传统的方案,它们仅提供“点到点”或“菊花链”的方式,Nutanix提供“全网状”或更加灵活的“多到多”的拓扑方式。
一致性组(CG/Consistency Group)
主要角色:PD中多个相关联的VM或文件构成的一个子集,以实现故障时一致性。
描述:PD中多台相关联的VM或文件需要在“同一时刻”发起快照。从而确保在虚拟机或文件回滚时的数据一致性。一个PD中可包含多个CG。
复制时间策略(Replication Schedule)
主要角色:快照Βιβλιοθήκη 复制的时间策略描述:为PD或CG中的VM提供定制的快照、复制的时间策略

超融合基础构架-工作原理(Nutanix)

超融合基础构架-工作原理(Nutanix)
探索技术,以简化及优化通用工作流,
无需再对服务器、存储网络、存储和
虚拟化采用单独管理解决方案。
Nutanix软件的部署方式
Nutanix 集群为100%软件定义集群。集群中的
每个节点都运行一部Hypervisor(VMware
ESXi、微软Hyper-V 或Nutanix Acropolis
Hypervisor)。作为虚拟机运行的Nutanix 软
块故障的情况下确保数据的正常使用。
可提供不同硬件平台,以解决计算和存储的
不同工作负载需求。Nutanix 软件独立于
硬件,可运行于Nutanix 硬件,也可运行
于戴尔和联想等硬件OEM 提供的硬件。
硬件平台提供“计算密集型”、“存储密集
型”和“仅包括存储型”选项。所有节点都
包括闪存,旨在优化存储性能。此外还提供
全闪存节点,以期为所有企业应用实现最低
C L I C K H E R E TO A D D A T I T L E
Nutanix 超融合基础架
构:
工作原理
演讲人姓名
一、处于十字路口的IT
越 来 越 多 的 企 业要 求 IT 团 队 减 少 用 于 基础 架构 的时 间, 将更
多 时 间 和 预 算 用于 能 够增 加企 业价 值的 应用 服务 。尽 管 IT 硬
延迟和最大I/O 流量。
Prism与Acropolis
Nutanix 软件包括两种组件:
Acropolis 与Prism。Acropolis 是
一种分布式数据平面,提供企业存储
与虚拟化服务,能够帮助应用在
Hypervisor 之间以及未来在云提供
商之间无缝流通。Prism 是一种分布

Nutanix超融合介绍

Nutanix超融合介绍

原理简介存储是当前虚拟化数据中心的最大挑战。

十五年以前针对物理服务器设计的网络存储架构对于虚拟机来说过于昂贵和复杂。

但在没有企业级的替代方案时,各组织机构被迫采用各种传统的解决方案,而这些解决方案无法满足虚拟机的需求,因为虚拟机始终保持着动态变化、数量迅速增加、并不断要求全新的性能和容量水平。

Nutanix Complete Cluster是一种可横向扩展的计算和存储基础设施,它使组织机构无需网络存储(SAN或NAS)便能够将自己的数据中心虚拟化。

Nutanix Complete Cluster专门针对虚拟机而设计,可提供全面的计算和存储功能,以及企业级的性能、可扩展性、可用性和数据管理功能。

它采用符合行业标准的硬件组件、固态硬盘,以及市场领先的管理程序,以便提供开箱即用的解决方案,让桌面虚拟化变得极其简单有效。

当前架构的局限性传统中心 (Yahoo, Altavista)服务器,交换, SAN, NAS 云中心(Google, Facebook, Amazon)通用硬件, Map/Reduce,DFS, NoSQL组织机构采用传统的“服务器通过网络与存储相连(servers-connected-to-storage- over-a-network)”的架构来创建自己的虚拟化基础设施,但这种架构无法满足不断变化的虚拟化需求。

除了性能较低之外,网络存储还是虚拟化环境中成本和复杂性的最大源头。

物理服务器用于相对不变的工作负载,在这种情况下,基于网络存储的架构非常有用。

然而,虚拟化以及现在的云计算使得数据中心处于不断变化之中;虚拟机迅猛增加,在不同的服务器之间来回迁移,并且非常依赖于共享资源。

正因为如此,管理虚拟机及其基本的物理基础设施变得极度复杂。

由于创建新虚拟机非常简便,因此数据中心的数据量增长很快。

在企业中,桌面虚拟化等新项目进一步促进了这种发展趋势。

服务提供商必须提供更大量的虚拟机,因为他们创建数据中心的目标客户无法承担虚拟化所需的成本和管理开销。

Nutanix超融合基础架构-白皮书

Nutanix超融合基础架构-白皮书

闪存性能非易失性闪存,一般称之为固态硬盘(SSD ),已经从根本上改变了现代存储服务器技术。

固态硬盘对数据中心基础架构的类型同样产生了深远影响,而这些基础架构已成为“云时代”最重要的因素之一。

2000年代末期,虚拟化已经成为推动数据中心实现突破性发展的创新技术。

虚拟化是指在硬件层对应用与工作负载进行抽象,它为按需扩展铺平了道路。

不过,为了使存储系统满足流量要求以实现预期扩展,数据中心还需要集中化网络存储系统,从而造成昂贵、复杂而低效的存储区域网络(SAN )与网络附加存储(NAS )系统。

现在,迎接SSD 的舞台已经搭建完毕。

全闪存阵列问世,进一步增强I/O ,推动虚拟机资源配置性能获得显著改进。

与标准硬盘1相比,SSD 的可靠性提高了15至20倍。

基础架构也得到了简化,因为实现同等性能的配置只需要更少量的磁盘。

瓶颈已由存储转至网络。

与标准硬盘相比,SSD 可实现:可靠性提升Nutanix解决方案简介计算、存储与联网的演变云时代已经到来。

这个时代的主要任务是消除不同资源池,即计算、网络与存储之间的孤岛,最终目标是提供易于使用、具有快速自助服务特点的IT 基础架构,为最终用户提供流畅体验。

这些要求催生了新型数据中心基础架构,也就是超融合基础架构的诞生。

1至1520 倍全新的Web-Scale世界超融合基础架构将计算与存储融合为单一构建模块。

这种构建模块已成为数据中心万兆以太网的标配。

存储层通常以SSD为基础,实现高速读取/写入,这种特点也是确保此类解决方案正常运行的关键所在。

在虚拟化时代的传统配置中,计算与存储资源互相分离。

所有数据都存储于硬盘内,硬盘位于基于硬件的一对存储控制器后,控制器负责操纵存储功能,包括存储池、存储协议与特性,如删除重复数据、压缩、时间点备份或快照等。

典型配置通常只有两部存储控制器,因此各部控制器都必须进行优化,使其负载不超过50%。

如果一部控制器发生故障,另一部控制器将接管其工作,以实现高可用性。

超融合-nutanix-技术篇

超融合-nutanix-技术篇
Distributed Storage Fabric
Web-Scale Core | Compression | Dedupe | Tiering | Resiliency | Data Protection
ESXi
Hyper-V
Acropolis Hypervisor (KVM)
AWS
Azure
两大产品家族: Acropolis & Prism
9
存储架构未来趋势
• Server SAN(HCI)未来增长迅速; • 5年后超过传统存储,成为市场主流; • 10年后:
• Server SAN将占据90%市场份额; • 传统存储只有10%的市场份额;
10
超融合:中国市场容量与增长趋势
US $M 600 500 400
PRC HCI Market Revenue Forecast, 2014-2019
+机箱感知 +副本数量 2~3可调
+Time Stream +VSS集成
+Cloud Connect +Cluster Shield +Prism Central
+Rest APIs
ProUltimate
节点数量不限
+多站点容灾 +同城容灾 +Data-At-Rest静态数据加密
15
统一的售后服务体系
独立采购 EMC、IBM、HP、NetApp
融合式架构 1.0 计算、存储、网络分层 整机柜打包、集成化部署 VCE、VSPEX、FlexPod

VMware、Microsoft、KVM
超融合系统
Cisco、Brocade、Intel

Nutanix 结构简介

Nutanix 结构简介

Microsoft Storage Spaces on Dell:•Existing Microsoft customers, hosters, VDI environments, and Test & Dev environments•Cheap and deep storage•Small and low-cost file serverVMware vSAN on Dell:•Existing VMware customers (primarily virtualization admins), VDI environments, Test & Dev environments•Simplicity of managementDell Nutanix solution:•Targeted at virtualization administrators•Simplicity of deployment and management•VDI environments•Heterogeneous hypervisorsDell-Nexenta solution:•Software based file storage•Customers who want ZFS based storageCaringo:Archival and lifecyle management of object storeCeph:Advanced private cloud, public cloudUsers looking to add scalable storage to their environmentDell Hadoop/Big Data solution:Users with big data and analytics needsDell OpenStack-powered cloud solution:Advanced private cloud, public cloudDell SUSE and Red Hat solutions:Enterprise-grade private cloud for mid-tier application and cloud storageRedapt IaaS Cloud RA:Small-Medium private cloud with Dell Storage SC2801.Nutanix 分布式文件系统Nutanix 分布式文件系统 (NDFS) 是 Nutanix 虚拟计算平台的核心。

Nutanix超融合基础架构解决方案PPT课件

Nutanix超融合基础架构解决方案PPT课件

REST
Network Driver

Nutanix Cluster
Nutanix Cluster
Nutanix超融合生态链
应用与技术
VMware
Oracle
Weeam
客户操作系统 硬件与环境
Windows
Lenovo VMware
RedHat
KVM
OpenStack
基于互联网基因的超融合基础架构
Glance Image
Cork
Swift Object
Sahara Data
fw/lb/vpn as service
Ironic Baremetal
Openstack Services VM
Compute Driver
Image Driver
Volume Driver
将计算和存 储资源融合 在一起
软件定义的 基础架构
分布式架构, 自我恢复的
性能优化
系统
自动化运维 和深度分析
Nutanix的架构
Tier1 工作负载
(运行在所有节点上)
Nutanix Controller VM
(运行在每一个节点上)
动态的工作负 载分配和多种 Hypervisor
选择
抛弃SAN/NAS 的架构和阵列
IDC 2014: Nutanix是超融合基础架构市场的领导者
IDC declares Nutanix dominant leader in hyper-converged assessment with 52% market share in 2014
Highlights
“Nutanix has been a key player in the emergence of the hyperconverged market and was early to demonstrate demand for the technology.”

超融合基础架构解决方案-

超融合基础架构解决方案-
检测安全基准遵从偏差,并利用SaltStack进行自我修复
AHV虚拟网络
Open vSwitch 提供虚拟网络每个VM的虚拟网卡连接到tap接口虚拟化使用网桥接口OpenFlow规则决定端口间流量物理以太网适配器通常配置为一个Bond的上行链路
VMWare HA
数据中心 A
数据中心 B
NUTANIX_A
1
1
Nutanix 超融合架构一键式初始化所有节点,安装完成后业务直接部署
传统的数据中心
2
3
4
5
6
1
2
3
5
4
6
传统架构与超融合架构硬件初始化过程
7
7
通过超融合减少资源占用
90%
高达
更少的电力和空间
传统
超融合架构:基础架构统一运维,简单管理
超融合架构:计算+存储资源完全线性扩展
2x 8-core CPU
NUTANIX_B
同城容灾: Metro Availability
Datastore_A (active)
Datastore_A (standby)
Datastore_B (active)
Datastore_B (standby)
Data at both Sites, in real-time
多站点,多拓扑结构支持单向,双向,一对多,多对一同时双向复制智能复制时序安排避免影响VM生产操作
节省成本
• 空间节省超过50%:传统2路服务器最小为1U,Nutanix在2U机箱中集成了4台2路 服务器• 电力节省超过66%:Nutanix 2U4节点最大电源功耗为1150W• 运维成本节省:Nutanix易于安装部署,初始安装只需要20分钟,扩展集群时新节 点将被自动发现,并且无需停机时间,扩展仅需要15分钟即可完成

基于Nutanix平台的超融合基础架构研究

基于Nutanix平台的超融合基础架构研究

1 引言随着新媒体的迅猛发展,业务应用和数据种类越来越丰富,其快速增长和变化要求传统的数据中心必须快速、高效响应,并提供相适配的能力以满足不断变化的业务需求。

但在数据中心的实际运行过程中,一方面,采购新的设备需要花费一段漫长的过程,新设备的部署上线、新业务系统的开发应用、在用业务系统的功能调整或者迭代等,往往又需要数日甚至数月的考虑和操作,消耗大量宝贵的资源和时间;另一方面,传统的硬件部署模式使得设备体量变得越来越庞大,进一步加剧了基础架构的复杂程度,运行维护管理难度加大。

压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(scale-out),形成统一的资源池。

HCI可为数据中心带来最优的效率、灵活性、规模、成本和数据保护。

使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。

2.2 超融合基础架构与传统三层架构比较相比传统数据中心(服务器+光纤交换机+存储)三层架构,超融合架构(计算+存储)具备多个优势,表1就性能、可用性、扩展性等方面技术,获得计算资源的高可用、系统级容错、应用级高可用、虚拟机在线迁移、资源动态负载均衡等能力,使业务系统在可靠性、可用性、可服务性等方面得到有效提升。

具体设计思路如下。

(1)构建x86服务器虚拟化资源池和集中管理服务,统一管理虚拟化资源池中的虚拟机和硬件系统资源,以便提高数据中心的资源利用率。

基于Nutanix架构的模块化数据中心由Nutanix Block(区块)和NutanixNode (节点)组成。

按照同样的CPU和存储容量计算,每台标准的Nuta-摘要:为适应企业信息化建设发展要求,本文对基于Nutanix平台、采用云计算架构来构建的数据中心基础架构进行了探讨,为传统数据中心面临的问题提供一种可实现的解决方案,以满足未来发展需求。

关键词:超融合基础架构云计算 传统架构99. 100. nix Block (区块)设备均含有四个独立的Nutanix 节点,每个Node(节点)都是一台独立的x86服务器,相当于4台x86服务器,达到减少传统硬件采购的个数,节约机房空间,节省电力和空调消耗,建设绿色数据中心的目标。

Nutanix超融合平台架构介绍

Nutanix超融合平台架构介绍

Nutanix超融合体系架构之:运行机制数据保护目前,Nutanix 平台使用复制因子(RF) 来确保节点或磁盘发生故障时数据的冗余和可用性。

如“架构设计”部分所述,OpLog 充当一个临时区域,将传入的写入吸收到低延迟的SSD 层。

将数据写入本地OpLog 时,在被主机确认(Ack) 为成功写入之前,数据将会同步复制到另外的一个或两个Nutanix CVM 的OpLog 中(取决于RF)。

这将确保数据存在于至少两个独立的位置,且具有容错能力。

所有节点均参与OpLog 复制以避免出现任何“热节点”并确保扩展时的线性性能。

然后,将数据异步排出到隐式维持RF 的盘区存储中。

之后在节点或磁盘出现故障的情况下,会将数据在群集中的所有节点之间重新复制以维持RF。

下面我们将展示此过程的逻辑表现形式的一个示例:数据位置作为一个融合的(计算+存储)平台,I/O 和数据位置对与Nutanix 有关的群集和VM 性能至关重要。

如前面I/O 路径中所述,所有读取/写入IO 均由本地控制器VM (CVM) 提供服务,本地控制器VM 位于邻近常规VM 的每个虚拟机监控程序中。

在CVM 的控制下,VM 的数据将在本地由CVM 提供服务并且位于本地磁盘中。

当VM 从一个虚拟机监控程序节点移动到另一个时(或发生HA 事件时),最新迁移的VM 的数据将由现在的本地CVM 提供服务。

在读取旧数据(存储在现在的远程节点/CVM 上)时,I/O 将由本地CVM 转发到远程CVM。

所有写入I/O 将立即在本地出现。

NDFS 会检测到I/O 从另一节点出现,并在后台将数据迁移到本地,现在将允许在本地为所有读取I/O 提供服务。

为了不泛洪网络,只在读取时迁移数据。

下面我们将展示数据在虚拟机监控程序的节点之间移动时如何“跟随”VM 的一个示例:可伸缩元数据元数据是任何智能系统的核心,对文件系统或存储阵列而言甚至更为重要。

就NDFS 而言,一些关键结构对于它的成功至关重要:它必须时刻保持正确(又称“严格一致性”),它必须可伸缩,而且它必须能够大规模执行。

Nutanix-高度融合基础架构

Nutanix-高度融合基础架构

企业级存储特性-重复数据删除
RAM和Flash实时删重 100% 软件驱动 为横向扩展而设计 可延展到所有存储包括硬盘
31
企业级存储特性-软件定义快照/克隆
完全Vmware集成
支持VMware VAAI API
支持View VCAI标准 从虚拟化软件中分离,提高性能
以VM为中心的快 照 没有LUN或卷
25
虚机迁移
Node Guest VM Controller VM Hypervisor Node Node
Controller VM
Hypervisor
Controller VM
Hypervisor
SSD/SATA
SSD/SATA
SSD/SATA
Seamless VM Migration
• Metadata service can access data from anywhere • Locality improves over time
• 系统可用性高 • 系统弹性好 • 管理简单
• • •
• 高度融合 • 完全配合系统建设的云化
18
18
Nutanix硬件系统-2U/4个节点
NX3461 Block
Node
Node
Node
Node
每个节点: 2 x CPUs w/10 cores Up to 512GB cache 2 x SSDs with up to 1.6TB 4 x 1TB HDD with up to 4TB
19
Each Node: 2 x 10Gb ports 2 x 1Gb ports 1 x 1 IPMI ports 19
服务器资源会越来越强大

Nutanix产品体系架构之架构设计

Nutanix产品体系架构之架构设计

Nutanix超融合之架构设计超融合平台针对于超融合的概念有着不同的理解,因为组件不同虚拟化、网络等而理解不同。

然而,核心的概念如下天然地将两个或多个组件组合到一个独立的单元中。

在这里,“天然”是一个关键词。

为了更加有效率,组件一定是天然地整合在一起,而不是简单地捆绑在一起。

对于,我们天然地将计算和存储融合到设备的单一节点中。

这就真正意味着天然地将两个或多个组件整合在一个独立的、可容易扩展的单元中。

其优势在于独立单元的扩展本地处理消除传统计算存储的竖井式结构,融合它们在一起目前超融合产品有两种形态:、捆绑式的硬件软件设备(系列、系列及联想系列),、纯软件模式(等)一般来说,从硬件形态看,是在的占用空间中放置个节点或个节点。

每个节点都运行一个符合行业标准的虚拟机监控程序(当前是、、在目前版本是)和控制器。

将运行软件,并为虚拟机监控程序的所有操作和该主机上运行的所有提供服务。

凭借虚拟机监控程序的功能,利用将管理和设备的控制器直接传递到。

下面是典型节点的逻辑表现形式的一个示例:从软件定义的角度来看,一般来说,软件定义的智能化是在通用的、商品化的硬件之上通过运行软件来实现核心的逻辑,而这些逻辑之前用专有的硬件编程方式实现例如等。

对于而言,是将传统的存储逻辑例如,去重,压缩,纠删码等采用软件方式去实现,这些软件运行在标准的硬件上的控制虚拟机,即内。

那就真正意味着把关键处理逻辑从专有硬件中剥离放入到运行在商用的硬件设备的软件之中。

一组节点共同构成一个分布式平台,称为分布式系统框架()。

对于虚拟机监控程序,看起来就像任何集中式存储阵列一样,不过所有都在本地进行处理,以提供最高性能。

下面可找到有关这些节点如何形成分布式系统的更多详细信息。

以下是有关这些节点如何形成系统的示例:可以看作是一个分布式自治系统,涉及从传统的单一集中模式处理业务转向跨集群内的所有节点分布式处理业务。

传统角度考虑问题是假设硬件是可靠的,在某种程度上是对的。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Nutanix超融合体系架构之:运行机制数据保护目前,Nutanix 平台使用复制因子(RF) 来确保节点或磁盘发生故障时数据的冗余和可用性。

如“架构设计”部分所述,OpLog 充当一个临时区域,将传入的写入吸收到低延迟的SSD 层。

将数据写入本地OpLog 时,在被主机确认(Ack) 为成功写入之前,数据将会同步复制到另外的一个或两个Nutanix CVM 的OpLog 中(取决于RF)。

这将确保数据存在于至少两个独立的位置,且具有容错能力。

所有节点均参与OpLog 复制以避免出现任何“热节点”并确保扩展时的线性性能。

然后,将数据异步排出到隐式维持RF 的盘区存储中。

之后在节点或磁盘出现故障的情况下,会将数据在群集中的所有节点之间重新复制以维持RF。

下面我们将展示此过程的逻辑表现形式的一个示例:数据位置作为一个融合的(计算+存储)平台,I/O 和数据位置对与Nutanix 有关的群集和VM 性能至关重要。

如前面I/O 路径中所述,所有读取/写入IO 均由本地控制器VM (CVM) 提供服务,本地控制器VM 位于邻近常规VM 的每个虚拟机监控程序中。

在CVM 的控制下,VM 的数据将在本地由CVM 提供服务并且位于本地磁盘中。

当VM 从一个虚拟机监控程序节点移动到另一个时(或发生HA 事件时),最新迁移的VM 的数据将由现在的本地CVM 提供服务。

在读取旧数据(存储在现在的远程节点/CVM 上)时,I/O 将由本地CVM 转发到远程CVM。

所有写入I/O 将立即在本地出现。

NDFS 会检测到I/O 从另一节点出现,并在后台将数据迁移到本地,现在将允许在本地为所有读取I/O 提供服务。

为了不泛洪网络,只在读取时迁移数据。

下面我们将展示数据在虚拟机监控程序的节点之间移动时如何“跟随”VM 的一个示例:可伸缩元数据元数据是任何智能系统的核心,对文件系统或存储阵列而言甚至更为重要。

就NDFS 而言,一些关键结构对于它的成功至关重要:它必须时刻保持正确(又称“严格一致性”),它必须可伸缩,而且它必须能够大规模执行。

如前面架构部分所述,NDFS 使用“环式”结构作为键值存储,键值存储将存储重要元数据及其他平台数据(如状态等)。

为了确保元数据的可用性和冗余,在奇数节点(如3、5 等)之间使用RF。

当元数据写入或更新时,写入或更新的行将被写入环中的一个节点,然后复制到n 个对等节点中(其中n 取决于群集大小)。

大部分节点必须同意,然后才能提交任何内容,内容的提交是使用paxos 算法强制执行的。

这将确保所有作为平台一部分存储的数据和元数据的严格一致性。

下面我们将展示4 节点群集的元数据插入/更新的一个示例:扩展时的性能也是NDFS 元数据的另一个重要结构。

与传统的双控制器或“主”模型不同,每个Nutanix 节点负责整个平台元数据的一个子集。

这消除了传统上允许群集中所有节点为元数据提供服务并进行管理的瓶颈现象。

通过一致性哈希方案来尽量减少修改群集大小时键的重新分配(又称“添加/移除节点”)当群集扩展时(例如从4 个扩展到8 个节点),为了确保“块感知”和可靠性,这些节点将被插入整个环中的节点之间。

下面我们将展示元数据“环”及其如何伸缩的一个示例:Shadow ClonesNutanix 分布式文件系统有一个称为“影子克隆”的功能,它支持“多读取者”场景下特定虚拟磁盘或VM 数据的分布式缓存。

有关该功能的一个典型例子是,在VDI 部署期间,许多“链接克隆”会将读取请求转发到中心主VM 或“基准VM”。

在VMware View 中,这被称为副本磁盘,通过所有链接的克隆读取,而在XenDesktop 中,这被称为MCS 主VM。

这在任何可能有多个读取者的场景(如部署服务器、存储库等)中也会起作用。

数据或I/O 本地化是实现最高VM 性能的重要因素,也是NDFS 的关键结构。

借助影子克隆,NDFS 将监控vDisk 访问趋势,这与监控数据本地化类似。

但是,如果两个以上远程CVM(以及本地CVM)发出请求,并且所有请求都是读取I/O,则vDisk 将标记为不可变。

一旦磁盘标记为不可变,则可通过每个向磁盘发出请求的CVM 在本地缓存vDisk (也称基准vDisk 的影子克隆)。

如此一来,每个节点上的VM 即可在本地读取基准VM 的vDisk。

对于VDI 而言,这意味着副本磁盘可以通过每个节点进行缓存,所有针对基准的读取请求可以在本地获得服务。

注意:为了不泛洪网络并有效利用缓存,只在读取时迁移数据。

如果基准VM 已修改,将会放弃影子克隆并重新开始这一过程。

影子克隆默认为禁用状态(在3.5 版及之前版本中),可以使用以下NCLI 命令启用/禁用:ncli cluster edit-paramsenable-shadow-clones=true下面的示例将展示影子克隆的工作原理及其如何实现分布式缓存:Elastic Dedupe Engine弹性重复数据删除引擎是基于软件的NDFS 功能,可以在容量(HDD) 和性能(SSD/内存)层执行重复数据删除。

在插入数据的过程中,会使用SHA-1 哈希以16K 的粒度为连续的数据流提取指纹。

指纹只在插入数据时提取,之后则会永久性地存储到写入块的元数据中。

这与传统方法相反,传统方法是利用后台扫描,需要重新读取数据,而Nutanix 直接在插入时提取指纹。

对于能够在容量层执行重复数据删除的重复数据,则不需要扫描或重新读取数据,实际上可以删除重复副本。

注意:最初提取指纹时使用的是4K 的粒度,但在测试之后,16K 在重复数据删除和降低元数据开销这两方面的综合性能最佳。

完成重复数据删除的数据保存到缓存中时,则使用4K。

下面的示例将展示弹性重复数据删除引擎伸缩和处理本地VM I/O 请求的方式:当数据I/O 大小为64K 或更大时,在插入数据时会提取指纹。

SHA-1 计算利用Intel 加速技术,这一过程仅产生非常小的CPU 开销。

如果在插入数据时没有完成指纹提取(例如I/O 大小较小时),可以作为后台进程完成指纹提取。

弹性重复数据删除引擎不仅适用于容量磁盘层(HDD),而且适用于性能层(SSD/内存)。

在确定重复数据后,依据相同指纹的多个副本,后台进程将使用NDFS MapReduce 框架(管理者)移除重复数据。

对于正被读取的数据,数据会保存到NDFS 内容缓存,这是一个多层/池缓存。

对具有相同指纹的数据的任何后续请求都将直接从缓存中提取。

有关内容缓存和池结构的详细信息,请参阅I/O 路径概述中的“内容缓存”小节,或者单击此处。

下面的示例将展示展示弹性重复数据删除引擎如何与NDFS I/O 路径进行交互:网络和I/ONutanix 平台没有利用任何底板来实现节点间通信,只依靠标准10GbE 网络。

专用私有网络上的虚拟机监控程序可以处理在Nutanix 节点上运行的VM 的所有存储I/O。

虚拟机监控程序处理I/O 请求,然后将请求转发到本地CVM 上的私有IP。

随后,CVM 将使用其外部IP,通过公有10GbE 网络对其他Nutanix 节点执行远程复制。

对于所有读取请求,大多数情况下都可以在本地完成,而不需要利用10GbE 网络。

这意味着,利用公有10GbE 网络的流量只有NDFS 远程复制流量和VM 网络I/O。

但是,如果CVM 发生故障或数据位于远程位置,CVM 会将请求转发到群集中的其他CVM。

同时,群集范围内的任务(例如磁盘平衡)会在10GbE 网络上临时生成I/O。

下面的示例将展示VM 的I/O 路径如何与私有和公有10GbE 网络进行交互:CVM Autopathing对于NDFS,可靠性和灵活性即使不是最重要的部分,也是一个关键部分。

作为一个分布式系统,NDFS 的作用是处理组件、服务和CVM 故障。

本节将介绍如何处理CVM 故障(未来的更新中将介绍如何处理组件故障)。

CVM 故障包括用户关闭CVM 电源、CVM 滚动升级或可能导致CVM 发生故障的任何事件。

NDFS 有一个称为“自动寻路”的功能,当本地CVM 不可用时,则由另一个CVM 透明地处理I/O。

虚拟机监控程序和CVM 使用私有192.168.5.0 网络在专用vSwitch 上进行通信(前文已有详细说明)。

这意味着,对于所有存储I/O,这一过程发生在CVM 的内部IP 地址上(192.168.5.2)。

CVM 的外部IP 地址用于远程复制和CVM 通信。

下面的示例将展示此过程:如果本地CVM 发生故障,之前由本地CVM 托管的本地192.168.5.2 地址将不可用。

NDFS 将自动检测到这一中断,并通过10GbE 将这些I/O 重定向到群集中的另一个CVM。

重新路由过程对主机上运行的虚拟机监控程序和VM 都是透明的。

这意味着,即使CVM 电源已经关闭,VM 仍然能够继续为NDFS 执行I/O。

NDFS 也能够自我修复,这意味着它将检测到CVM 已经关闭电源,并将自动重新启动或开启本地CVM 电源。

一旦本地CVM 恢复并可用,流量将无缝地回传并由本地CVM 提供服务。

下面我们将展示故障CVM 的这一过程的图形表示:磁盘平衡NDFS 采用极其动态的平台设计,可以处理各种工作负载,并且一个群集可以混合使用多种异类节点:计算密集型(3050 等)和存储密集型(60X0 等)。

混合使用具有较大存储容量的节点时,必须确保数据均匀分布。

NDFS 拥有一个称为“磁盘平衡”的本机功能,该功能用于确保数据在整个群集中均匀分布。

磁盘平衡控制节点对其本地存储容量的利用率,并与NDFS ILM 集成。

其目的是,一旦利用率达到一定阈值,就让节点之间的利用率保持均匀。

下面的示例将展示处于“不平衡”状态的混合群集(3050 + 6050) :磁盘平衡利用NDFS 管理者框架,作为预定进程运行,并在超过阈值时运行(例如本地节点容量利用率> n %)。

如果数据不平衡,管理者将确定需要移动的数据,并将任务分布到群集中的各个节点。

如果节点类型是同类(例如3050),利用率应特别均匀。

但是,如果某个节点上运行的某些VM 写入的数据多于其他节点,则每个节点的容量利用率会有所倾斜。

在这种情况下,磁盘平衡会开始运行,并将该节点上的最冷数据移动到群集中的其他节点。

如果节点类型是异类(例如3050 + 6020/50/70),或者某个节点用于“仅限存储”模式(不运行任何VM),则可能需要移动数据。

下面的示例将展示运行磁盘平衡后处于“平衡”状态的混合群集:在有些情况下,客户可能需要以“仅限存储”状态运行某些节点,CVM 只在主要用于批量存储容量的节点上运行。

下面的示例将展示混合群集中的仅限存储节点,磁盘平衡将数据从活动VM 节点移动到该节点:软件定义的控制器架构如上所述(可能有无数次),Nutanix 平台是基于软件的解决方案,以“捆绑式的软件+硬件设备”进行销售。

相关文档
最新文档