Nutanix超融合方案建议书模板
Nutanix超融合之架构设计
Nutanix超融合之架构设计超融合平台针对于超融合的概念有着不同的理解,因为组件不同(虚拟化、网络等)而理解不同。
然而,核心的概念如下:天然地将两个或多个组件组合到一个独立的单元中。
在这里,“天然”是一个关键词。
为了更加有效率,组件一定是天然地整合在一起,而不是简单地捆绑在一起。
对于Nutanix,我们天然地将计算和存储融合到设备的单一节点中。
这就真正意味着天然地将两个或多个组件整合在一个独立的、可容易扩展的单元中。
其优势在于:1.独立单元的扩展2.本地I/O处理3.消除传统计算/存储的竖井式结构,融合它们在一起目前Nutanix超融合产品有两种形态:1、捆绑式的硬件+ 软件设备(Nutanix NX系列、Dell XC系列及联想HX系列),2、纯软件模式(Nutanix on UCS等)一般来说,从硬件形态看,是在2U 的占用空间中放置2 个节点或4 个节点。
每个节点都运行一个符合行业标准的虚拟机监控程序(当前是ESXi、KVM、Hyper-V, XenServer在目前版本是Tech-Preview)和Nutanix 控制器VM (CVM)。
Nutanix CVM 将运行Nutanix 软件,并为虚拟机监控程序的所有I/O 操作和该主机上运行的所有VM 提供服务。
凭借虚拟机监控程序的功能,利用Intel VT-d 将管理SSD 和HDD 设备的SCSI 控制器直接传递到CVM。
下面是典型节点的逻辑表现形式的一个示例:从软件定义的角度来看,一般来说,软件定义的智能化是在通用的、商品化的硬件之上通过运行软件来实现核心的逻辑,而这些逻辑之前用专有的硬件编程方式实现(例如ASIC/FPGA 等)。
对于Nutanix 而言,是将传统的存储逻辑(例如RAID,去重,压缩,纠删码等)采用软件方式去实现,这些软件运行在标准的x86 硬件上的Nutanix 控制虚拟机(Controller Virtual Machine,即CVM)内。
Nutanix虚拟化建议方案
目录虚拟化建议书 (1)1.项目背景 (3)2.需求分析 (4)3.系统改造方案 (5)3.1.技术选型 (5)3.2.系统拓扑图 (6)3.3.具体方案描述 (7)3.3.1.融合的计算资源 (7)3.3.2.融合的存储资源 (8)3.4.设备配置参数 (10)3.5.方案优点 (10)4.Nutanix简介 (11)4.1.Nutanix的发展历程 (11)4.2.Nutanix区块和Nutanix节点 (12)4.3.Nutanix的可扩展性 (13)4.4.Nutanix的性能 (15)4.5.Nutanix的可用性 (15)4.6.Nutanix的支持 (16)1.项目背景信息化数据不断增长且集中的业务对 IT 部门的要求越来越高,所以数据中心需要更为快速的提供所需能力。
在以往运维工作中,可以看到IT建设亦面临着诸多问题。
1、存在资源部署浪费及信息安全风险机房设备目前多采用X86架构的服务器,随着业务的增长,服务器数量逐年增长,而有些单个业务系统要求远远小于一台物理服务器资源,多种操作系统、数据库、中间件共用服务器又存在兼容性问题及互相影响的风险,因此目前的布署模式存在一定程度的服务器资源的浪费。
每个业务系统都需要至少一台服务器,虽然每次投资不多,但是这个投资是随着业务系统的增加不断均衡的投入。
在不对当前资源分配、使用模式进行变动的情况下,无法同时保障信息系统安全,亦无法实现资源高效利用和成本投入控制。
2、设备稳定性影响业务系统正常运作的风险绝大部分的业务系统,都是单机部署。
系统维护、升级或者扩容时候需要停机进行,造成应用中断,大大的降低了可用性低。
同时,某些老的业务系统迁移到新的硬件平台时,可能存在一些兼容性的问题,从而在一定程度上限制了业务的发展。
现有的业务服务器既承担业务处理的任务,又承担数据存储的任务,会使性能及处理能力降级,直接影响到关键业务系统的响应时间。
另外,部分生产数据大部分都仅存储于服务器本地磁盘空间之中,数据无冗余、备份。
Nutanix 企业云解决方案说明书
Converged Cloud Fabric for Nutanix Enterprise CloudIs it possible to architect an enterprise cloud as good as a public cloud?Midsize enterprises (MSEs) need networking technologies that public cloud providers have spearheaded in data center architecture to enable a frictionless, self-service experience for application deployment. Organizations are eager to bring the same innovation, operational agility and simplicity into managing on-premises applications. Legacy infrastructure has not been able to meet the evolving needs of enterprise applications because they are manual, complex, and siloed.Enterprises need cloud-like infrastructure that is built upon software-defined principles to eliminate complexity, to enable agile provisioning of applications and to dynamically scale infrastructure with the application needs.Nutanix Enterprise Cloud is offering a hyper-converged stack that breaks down silos of compute and storage to enable linear scaling of application performance and capacity without performance bottlenecks, expensive overprovisioning or disruptive downtime. Physical networking, however, has remained challenging with outdated, box-by-box CLI-based approach which simply cannot be operated in cloud timelines.With traditional solutions, deployment of the network takes weeks, basic ongoing operations require manual, trouble-ticketingprocesses and complexity multiplies when the network needs to be scaled. As a result, a significant chunk of IT effort is spent on just scaling and managing infrastructure rather than focusing on applications and business value they provide.Achieving a self-service application model for Nutanix Enterprise Cloud requires an approach where standing up a network is as simple as acquiring a public cloud VPC, ongoing network operations are completely automated, and trouble-shooting is extremely simplified.The SolutionArista and Nutanix are transforming data centers by leveraging public cloud constructs as first principles for architecting enterprise private clouds. Arista’s Converged Cloud Fabric provides invisible (zero-touch) networking to Nutanix hyperconverged infrastructure (HCI) based on Acropolis Hypervisor (AHV). CCF leverages cloud-first networking principles in two ways:1. Leaf-spine design with SDN controls, and2. Public cloud VPC-style logical networking that is API integrated with Nutanix Prism.This joint solution enables unprecedented operational velocity, network automation at VM speed and end-to-end network visibility & troubleshooting. With Arista + Nutanix Enterprise Cloud operating just like a public cloud in terms of economics and operational workflows, customers can now optimize app placement across public and private clouds based on app’s needs for elasticity, cost and performance. In addition, the solution offers networking services through Nutanix Flow which enables simplified policy management and increased application security and visibility.CCF embraces the following hyperscale design principles to enable rapid innovation, operational consistency and TCO reduction: • Logical VPC-style networking with Enterprise VPCs (E-VPCs): CCF provides public cloud-style logical networking by offering Enterprise VPCs as the unit of network automation and visibility, thus enabling the simplicity and agility of public cloudnetworking and consistency of networking principles across enterprise and public clouds.• Software-Defined Principles: The CCF is controlled by an SDN controller offering simplicity with a single pane of glass for fabric management and zero-touch operations. The CCF controller also acts as the single point of integration with Nutanix Prism to automate physical networking and to offer deep visibility, analytics and troubleshooting from a central dashboard.• Core-and-Pod Design: CCF is deployed on a per pod basis with multiple pods connected to an existing core router. This modular approach simplifies automation, enables seamless brown-field insertion, capacity planning and rapid innovation. Solution ArchitectureNetwork Automation for Nutanix E-VPCAutomatic Bootstrapping of Nutanix AHV HostsNutanix bare metal nodes are bootstrapped by CCF through a dedicated Nutanix management sub-network within an infrastructure VPC. An existing AHV cluster can be migrated to CCF or a new cluster can be deployed using the Nutanix foundation tool.Automatic AHV Host Detection and Fabric AdmissionWhen CCF connects with Nutanix Prism, a Nutanix E-VPC is created as a logical construct for operations within CCF. All Nutanix hosts within the E-VPC are automatically detected through link detection mechanisms and admitted into the fabric through the automatic creation of multi-chassis LAG (MLAGs) to the fabric switches. In this way, the entire fabric is brought up in a zero-touch fashion.Automatic formation of MLAGs according to Nutanix Prism ConfigurationsSolution BenefitsThe Converged Cloud Fabric controller acts as a single point of integration with Nutanix Prism to offer Enterprise VPC-level network automation, visibility and troubleshooting benefits.Automated Distributed Logical RoutingWhen VMs are associated with a new, different network segment in Nutanix Prism, CCF learns this and automatically configures logical routing across various segments in the E-VPC and distributes it throughout the physicalfabric. This completely redefines the operational model compared to the legacy box-by-box complex command-line configurations needed to establish routing between the segments.Flexible & Customized Automation OptionsCCF E-VPC automation allows different automation flexibility levels to fit enterprise organizational needs. In the most restrictive manner admins can configure Nutanix Prism Integration in CCF to provide visibility into Nutanix AHV clusters withoutsubscribing to any automatic network configuration changes. On the other hand, admins can configure Prism integration in CCF to provide full-fledged benefits, including automated E-VPC configurations for a Nutanix AHV cluster to support multi-tenancy use cases within organizations. For example, IT department serving multiple internal organizations (e.g.: Finance/HR, etc.) can automatically provision multiple E-VPCs for each of their customers. Following is a breakdown of the automation flexibility provided in the Converged Cloud Fabric.E-VPC based Automated L2 Networking for Nutanix AHVAs networks are configured on Nutanix Prism for VMs on AHV nodes, the integrated solution enables automatic configuration of logical segments within the E-VPC for the Nutanix’ endpoints in CCF. Newly created VMs are dynamically learned as an endpoint in CCF and the corresponding network segments are automatically created within the E-VPC. When AHV VMs and the associated networks are deleted or modified on Nutanix Prism, the CCF automatically deletes or modifies the corresponding logical segments within the E-VPC.Automatic formation of Enterprise VPC & network segments according to Nutanix Prism ConfigurationsNutanix E-VPC-level Endpoint VisibilityCCF Nutanix Prism page displays information of clusters, hosts, virtual switches and the endpoints in a Nutanix E-VPC based on data provided by Prism to CCF. Different tables in CCF provide details of the AHV cluster from different viewpoints.While the Physical connections table provides the fabric connectivity and mapping details for Nutanix hosts, the Endpoints table provides details of the VMs and can be an excellent starting point for troubleshooting.Contextual visibility of Nutanix AHV virtual networksNetwork Visibility, Troubleshooting & Analytics for Nutanix E-VPCFabric Trace for Nutanix E-VPCVM-to-VM traffic visibility for a Nutanix E-VPC across the entire leaf-spine fabric can be visually displayed on the CCF controller, as shown below. This level of visibility to traffic, which cannot be achieved with box-by-box networking, helps rapidly determine if an application issue is network-related versus compute related without going through tedious trouble ticketing processes.Spanning traffic from Nutanix AHV nodesCCF Fabric SPAN feature allows admins to monitor and SPAN traffic streams out from Nutanix AHV clusters without knowing the exact physical parameters related to the traffic stream. For example, an admin can instruct the CCF controller to SPAN traffic from a particular AHV virtual network with a couple of clicks. In traditional networking, the equivalent taskwould require not only intimate knowledge about where exactly traffic would be originating but also coordination and configuration amongst many individual network devices and ports.CCF simplifies these SPAN troubleshooting workflows greatly by allowing admins to define the targeted traffic flow parameters using numerous Nutanix AHV metadata information.Fabric Analytics for Nutanix E-VPCCCF’s advanced fabric analytics for a Nutanix E-VPC captures VM-related information (name, creation time, pNIC info, port-groups), and time-series of events related to VMs. This is very beneficial during troubleshooting to narrow down the time interval when specific events occurred.SPAN Fabric configuration in CCFBuilt-in Fabric Analytics dashboard for Nutanix PrismSanta Clara—Corporate Headquarters 5453 Great America Parkway, Santa Clara, CA 95054Phone: +1-408-547-5500 Fax: +1-408-538-8920 Email:***************Copyright © 2020 Arista Networks, Inc. All rights reserved. CloudVision, and EOS are registered trademarks and Arista Networks is a trademark of Arista Networks, Inc. All other company names are trademarks of their respective holders. Information in this document is subject to change without notice. Certain features may not yet be available. Arista Networks, Inc. assumes noresponsibility for any errors that may appear in this document. May 2020Ireland—International Headquarters 3130 Atlantic AvenueWestpark Business Campus Shannon, Co. Clare IrelandVancouver—R&D Office9200 Glenlyon Pkwy, Unit 300 Burnaby, British Columbia Canada V5J 5J8San Francisco—R&D and Sales Office 1390 Market Street, Suite 800 San Francisco, CA 94102India—R&D OfficeGlobal Tech Park, Tower A & B, 11th Floor Marathahalli Outer Ring RoadDevarabeesanahalli Village, Varthur Hobli Bangalore, India 560103Singapore—APAC Administrative Office 9 Temasek Boulevard #29-01, Suntec Tower Two Singapore 038989Nashua—R&D Office 10 Tara Boulevard Nashua, NH 03062Multi cluster connectivity options for AHV and ESXi HypervisorsConverged Cloud Fabric can greatly simplify connectivity options between Nutanix AHV clusters and Nutanix nodes running ESXi hypervisor. With a couple of click process, you can map your ESXi cluster to one E-VPC in Converged Cloud Fabric and AHV cluster to another E-VPC. As a result, if you are migrating your current ESXi infrastructure to an AHV infrastructure, Converged Cloud Fabric can reduce the networking burden entirely by automating many of the associated connectivity workflows.For example, depending on your enterprise needs, you can choose to map both the ESXi cluster and AHV cluster to the same E-VPC thus making sure connectivity is seamlessly maintained across both the clusters during the migration period. On the other hand, if you wish to only allow a specific set of connectivity from your current ESXi environment to AHV environments you have the flexibility to pick and choose and customize E-VPC mappings depending on your needs.Multi-Cluster AutomationConnectivity details between Nutanix & VMware VPCs in Converged Cloud FabricBusiness Continuity: Extending Network Connectivity Across RegionsMaintaining connectivity across Nutanix AHV clusters in different regions may be crucial to maintaining business continuity. If you operate multiple Nutanix clusters in different datacenters, you can extend the connectivity between these AHV clusters with the help of Converged Cloud Fabric. CCF provides two different flavors of connectivity options to connect across regions: Directly connecting CCF pods (e.g.: connecting with dark fiber), or connecting CCF pods using VXLAN over a Layer3 network. Depending on the needs, admins can pick and choose between these two flavors to establish inter-region connectivity across geographically dispersed Nutanix AHV clusters.。
NUTANIX超融合数据中心方案建议书
目录1需求分析1.1现状和需求为提供高性能,高可靠性,高扩展性的云平台架构,计划采用新一代的超融合架构建设云平台,提供计算和存储的资源。
1.2数据中心发展趋势回顾数据中心的发展,可以分为个阶段。
年代,称为客户端服务器时代,特点是数据中心以小型机支撑业务系统为主,各系统独立建设,不同系统之间相互隔离,后来出现了存储,实现了不同系统之间的数据共享。
千年开始,服务器开始逐渐普及,服务器虚拟化的兴起,使得存储称为数据中心虚拟化的标准配置。
虚拟化时代数据中心服务器资源可以横向扩展,但是存储不能横向扩展,只能纵向升级,不能适应虚拟化对性能的要求。
年后进入了云时代,企业需要建立云数据中心,服务资源和存储资源都需要资源池化,传统的存储架构已经不能适应云时代的数据中心要求,需要采用软件定义的方式来构建存储资源池,需要支持多种,企业私有云需要能够和公有云对接。
图数据中心发展趋势据的研究预测,传统存储的销售额呈现明显下滑的趋势,市场份额逐渐被近期兴起的超融合架构取代,未来五年,超融合架构的市场份额会超过传统存储,十年后,的市场占有份额会降到以下。
图存储发展趋势1.3超融合与传统架构选择超融合基础架构(,或简称“”)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(),形成统一的资源池。
是实现“软件定义数据中心”的终极技术途径。
类似、等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。
使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。
图超融合架构示意图下表列举了使用超融合架构(计算存储)和传统数据中心三层架构(服务器光纤交换机存储)的对比:2超融合方案设计新一代数据中心建设包含众多信息化应用的实施,与此相对应,机房服务器和存储设备也必将大量使用,并且随着后期应用扩充和服务扩容,服务器和存储设备的投入必然越来越庞大。
Nutanix超融合基础架构解决方案:可支援三大虚拟化平台
以自身獨有的分散式檔案系統為基礎,結合虛擬化平臺,Nutanix 將企業IT環境所需的運算與儲存資源,凝縮在NX-3050這臺2U、4節點的應用伺服器中,用戶可選擇搭配VMware、微軟Hyper-V 或KVM等3種虛擬平臺,以VM為核心來配置與運用硬體資源,並能藉由Scale-Out擴充能力,一次以一個節點為單位逐步擴展效能與容量。
可快速完成IT基礎設施的建置Nutanix稱NX系列應用伺服器是虛擬計算平臺(Virtual Computing Platform)產品,我們可以理解為這是在一個設備平臺上,提供了IT應用所需的計算與儲存資源,並且是透過虛擬平臺Hypervisor以VM的型式來配置與運用硬體資源。
這種將計算、儲存等基礎設施功能融合於一臺設備、並以VM為中心來提供應用需求的產品,便是典型的超融合基礎架構(Hyper-Converged Infrastructure)。
NX應用伺服器出廠時,可按用戶需求由Nutanix原廠或經銷商協助完成基本的叢集設定與Hypervisor部署,用戶端只需花費少許時間進行基本環境參數設定,很快便可開始使用NX系列應用伺服器,以VM型式向前端使用者交付需要的資源。
除了以VM型式提供資源外,Nutanix應用伺服器還可透過底層的分散式檔案系統,提供跨節點資料鏡像、分層儲存,以及壓縮、重複資料刪除、快照、Clone與遠端複製等功能,用戶無需另外尋找第三方解決方案,依靠Nutanix應用伺服器本身,便能提供企業儲存必要的資料保護、I/O加速與資料服務功能。
提供多樣化的產品組合Nutanix提供了多種軟、硬體組態產品組合,硬體部份包括NX-1000、NX-3000、NX-6000、NX-7000、NX-8000與NX-9000等一共6個應用伺服器系列,所有機型都是採用2U高度機箱,其中1000與3000系列是2U/4節點的高密度組態,6000與9000系列是2U/雙節點,至於7000與8000系列則是2U/單節點的組態。
Nutanix解决方案
4
按需的交付数据库服务提供7*24连续服务能力,无需担心硬件升级导致计划内的停机
5
典型应用场景之私有云和混合云
43
分支机构ROBO
数据保护与灾难恢复DP&DR
大数据
桌面云VDI
私有云和混合云
OpenStack在Nutanix平台上的集成方案
Acropolis Openstack
Services VM
OpenStack
Acropolis Drivers for Openstack
Acropolis Compute Driver
Acropolis Image Driver
Acropolis Volume Driver
Acropolis Network Driver
NDFS
单节点配置计算资源: 最高可配置 28 核CPU 最高可配置 512GB 内存存储资源: SSD: 2块400/800/1600GB; HDD: 4块1/2/4/6TB 控制器: Nutanix Controller VM
Nutanix DSF优势:无限横向线性扩展
数据中心基础架构没有因为虚拟化而变得简单
传统架构未必适合大量虚拟化的负载
Server
Storage
Server
Server
Storage
Server
Server
Storage
Storage
Server
Server
Storage
Storage
Storage
Node
Node
Node
Node
超融合平台技术方案建议书
超融合平台技术方案建议书目录一、项目概况 (3)1、建设背景 (3)2、技术需求 (3)2.1、高性能计算集群技术需求 (3)2.2、超融合系统技术需求 (3)2.3、专用机房技术需求 (4)二、建议解决方案 (5)1、方案拓扑 (5)2、方案描述 (5)2.1、超融合平台方案 (6)2.2、数据备份解决方案(未来可选) (13)2.3、连续数据保护解决方案 (16)2.4、横向扩展共享文件存储方案 (17)3、配置清单 (20)三、DELLEMC方案优势 (20)四、DELLEMC超融合及I SILON成功案例列表 (21)五、产品介绍 (25)一、项目概况1、建设背景地理科学院计划建设面向全息地图的地理信息资源开发与利用实验平台,该实验平台是对新一代地理信息资源的利用技术的全新探索,对于提升地理科学院的教学与科研水平具有非常重要的作用。
2、技术需求建设面向全息地图的地理信息资源开发与利用实验平台项目牵涉到三个方面的建设内容:1)、高性能计算集群2)、超融合平台3)、机房装修及强弱电2.1、高性能计算集群技术需求(1)系统计算节点理论峰值≥62Tflops;本项目须采用100Gb OMNIPATH或IB全线速无阻塞高速计算网络;要求明确说明每项设备机架高度、重量、以及功耗,考虑用户机房环境,要求所配置产品组合尽量最小化机架空间。
(2)整体集群选用Intel处理器,满足广泛应用的需求和调试要求。
(3)商业版并行文件系统,满足海量存储空间的需要。
(4)投标商所交付的硬件产品,其所有部件必须都是原厂原装部件,而且产品应是交付前最新生产且未被使用过的全新产品,同时必须具有在中国境内的合法使用权。
2.2、超融合系统技术需求(1)超融合平台及所有数据均需部署在横向扩展架构的设备上;要求结构化数据采用超融合架构,实现计算资源、网络资源、存储资源、数据保护、云环境支持的统一融合,简化部署及资源分配流程,方便日常管理及未来的扩容;而非结构化数据采用横向扩展文件共享设备来存储,可设置多重数据保护策略,便于管理及扩展;(2)需对重要数据及系统进行安全保护,保护的对象为虚拟化环境的虚拟机,保护级别分为本地数据备份和远程的容灾保护,保护的级别既可以做到每天一次的备份,也可以做到秒级的连续保护;(3)要求在保持本次设计架构不变的基础上,所有设备都可以增加最小基本单元的方式扩展,要求扩展尽量简便,不需要专业人员操作,而由平台自动化完成;未来可升级为跨机房的远程双活,都可以实现数据的同步存储,应用分布在2个不同的机房中,可随时切换;2.3、专用机房技术需求专用机房基础设施层主要包括:机柜系统、制冷系统、供配电系统、综合布线系统、机房管理系统、消防系统、防雷接地系统、机房装修系统。
超融合基础构架-工作原理(Nutanix)
无需再对服务器、存储网络、存储和
虚拟化采用单独管理解决方案。
Nutanix软件的部署方式
Nutanix 集群为100%软件定义集群。集群中的
每个节点都运行一部Hypervisor(VMware
ESXi、微软Hyper-V 或Nutanix Acropolis
Hypervisor)。作为虚拟机运行的Nutanix 软
块故障的情况下确保数据的正常使用。
可提供不同硬件平台,以解决计算和存储的
不同工作负载需求。Nutanix 软件独立于
硬件,可运行于Nutanix 硬件,也可运行
于戴尔和联想等硬件OEM 提供的硬件。
硬件平台提供“计算密集型”、“存储密集
型”和“仅包括存储型”选项。所有节点都
包括闪存,旨在优化存储性能。此外还提供
全闪存节点,以期为所有企业应用实现最低
C L I C K H E R E TO A D D A T I T L E
Nutanix 超融合基础架
构:
工作原理
演讲人姓名
一、处于十字路口的IT
越 来 越 多 的 企 业要 求 IT 团 队 减 少 用 于 基础 架构 的时 间, 将更
多 时 间 和 预 算 用于 能 够增 加企 业价 值的 应用 服务 。尽 管 IT 硬
延迟和最大I/O 流量。
Prism与Acropolis
Nutanix 软件包括两种组件:
Acropolis 与Prism。Acropolis 是
一种分布式数据平面,提供企业存储
与虚拟化服务,能够帮助应用在
Hypervisor 之间以及未来在云提供
商之间无缝流通。Prism 是一种分布
Nutanix超融合基础架构-白皮书
闪存性能非易失性闪存,一般称之为固态硬盘(SSD ),已经从根本上改变了现代存储服务器技术。
固态硬盘对数据中心基础架构的类型同样产生了深远影响,而这些基础架构已成为“云时代”最重要的因素之一。
2000年代末期,虚拟化已经成为推动数据中心实现突破性发展的创新技术。
虚拟化是指在硬件层对应用与工作负载进行抽象,它为按需扩展铺平了道路。
不过,为了使存储系统满足流量要求以实现预期扩展,数据中心还需要集中化网络存储系统,从而造成昂贵、复杂而低效的存储区域网络(SAN )与网络附加存储(NAS )系统。
现在,迎接SSD 的舞台已经搭建完毕。
全闪存阵列问世,进一步增强I/O ,推动虚拟机资源配置性能获得显著改进。
与标准硬盘1相比,SSD 的可靠性提高了15至20倍。
基础架构也得到了简化,因为实现同等性能的配置只需要更少量的磁盘。
瓶颈已由存储转至网络。
与标准硬盘相比,SSD 可实现:可靠性提升Nutanix解决方案简介计算、存储与联网的演变云时代已经到来。
这个时代的主要任务是消除不同资源池,即计算、网络与存储之间的孤岛,最终目标是提供易于使用、具有快速自助服务特点的IT 基础架构,为最终用户提供流畅体验。
这些要求催生了新型数据中心基础架构,也就是超融合基础架构的诞生。
1至1520 倍全新的Web-Scale世界超融合基础架构将计算与存储融合为单一构建模块。
这种构建模块已成为数据中心万兆以太网的标配。
存储层通常以SSD为基础,实现高速读取/写入,这种特点也是确保此类解决方案正常运行的关键所在。
在虚拟化时代的传统配置中,计算与存储资源互相分离。
所有数据都存储于硬盘内,硬盘位于基于硬件的一对存储控制器后,控制器负责操纵存储功能,包括存储池、存储协议与特性,如删除重复数据、压缩、时间点备份或快照等。
典型配置通常只有两部存储控制器,因此各部控制器都必须进行优化,使其负载不超过50%。
如果一部控制器发生故障,另一部控制器将接管其工作,以实现高可用性。
超融合虚拟化容灾-方案建议书
超融合虚拟化容灾方案建议书目录虚拟化、容灾建议书 (1)1.项目背景 (3)2.需求分析 (4)3.系统改造方案 (5)3.1.技术选型 (5)3.2.系统拓扑图 (6)3.3.具体方案描述 (7)3.3.1.融合的计算资源 (7)3.3.2.融合的存储资源 (8)3.4.设备配置参数 (9)3.5.方案优点 (10)4.系统容灾方案 (10)4.1.容灾设计原理 (10)4.2.容灾方案介绍 (11)4.3.方案简述 (13)4.4.灾备端设备配置参数 (14)5.Nutanix简介 (15)5.1.Nutanix的发展历程 (15)5.2.Nutanix区块和Nutanix节点 (16)5.3.Nutanix的可扩展性 (17)5.4.Nutanix的性能 (19)5.5.Nutanix的可用性 (19)5.6.Nutanix的支持 (20)1.项目背景信息化数据不断增长且集中的业务对 IT 部门的要求越来越高,所以数据中心需要更为快速的提供所需能力。
在以往运维工作中,可以看到IT建设亦面临着诸多问题。
1、存在资源部署浪费及信息安全风险机房设备目前多采用X86架构的服务器,随着业务的增长,服务器数量逐年增长,而有些单个业务系统要求远远小于一台物理服务器资源,多种操作系统、数据库、中间件共用服务器又存在兼容性问题及互相影响的风险,因此目前的布署模式存在一定程度的服务器资源的浪费。
每个业务系统都需要至少一台服务器,虽然每次投资不多,但是这个投资是随着业务系统的增加不断均衡的投入。
在不对当前资源分配、使用模式进行变动的情况下,无法同时保障信息系统安全,亦无法实现资源高效利用和成本投入控制。
2、设备稳定性影响业务系统正常运作的风险绝大部分的业务系统,都是单机部署。
系统维护、升级或者扩容时候需要停机进行,造成应用中断,大大的降低了可用性低。
同时,某些老的业务系统迁移到新的硬件平台时,可能存在一些兼容性的问题,从而在一定程度上限制了业务的发展。
NUTANIX超融合数据中心方案建议书(优选.)
精品word.最新文件---------------- 仅供参考--------------------已改成-----------word文本 ---------------------方便更改赠人玫瑰,手留余香。
方案建议书1 / 29超融合数据中心方案建议书 | 1目录1需求分析 (3)1.1现状和需求 (3)1.2数据中心发展趋势 (3)1.3超融合与传统架构选择 (5)2超融合方案设计 (7)2.1设计原则 (8)2.2方案设计 (9)2.2.1计算资源 (9)2.2.2存储资源 (11)2.2.3网络拓扑 (13)2.2.4容灾方案 (15)2.3方案优势 (17)2.3.1横向扩展优势 (20)2.3.2性能优势 (22)2.3.3可靠性 (23)2.3.4易于部署 (24)2.3.5集中管理 (24)2.3.6自动故障恢复 (26)3配置清单 (27)1需求分析1.1现状和需求为提供高性能,高可靠性,高扩展性的云平台架构,计划采用新一代的超融合架构建设云平台,提供计算和存储的资源。
1.2数据中心发展趋势回顾数据中心的发展,可以分为3个阶段。
1990年代,称为客户端服务器时代,特点是数据中心以小型机支撑业务系统为主,各系统独立建设,不同系统之间相互隔离,后来出现了SAN存储,实现了不同系统之间的数据共享。
2000千年开始,X86服务器开始逐渐普及,服务器虚拟化的兴起,使得SAN/NAS存储称为数据中心虚拟化的标准配置。
虚拟化时代数据中心服务器资源可以横向扩展,但是SAN存储不能横向扩展,只能纵向升级,不能适应虚拟化对性能的要求。
2010年后进入了云时代,企业需要建立云数据中心,服务资源和存储资源都需要资源池化,传统的SAN存储架构已经不能适应云时代的数据中心要求,需要采用软件定义的方式来构建存储资源池,需要支持多种Hypervisor,企业私有云需要能够和公有云对接。
图1.1 数据中心发展趋势据WikiBon的研究预测,传统SAN/NAS存储的销售额呈现明显下滑的趋势,市场份额逐渐被近期兴起的超融合架构/ServerSAN取代,未来五年,超融合架构的市场份额会超过传统SAN/NAS存储,十年后,SAN/NAS的市场占有份额会降到10%以下。
超融合系统方案建议书
4
本系统架构设计考虑到数据中心技术的变迁,以及新兴互联网架构的技术趋势,为XXX提供面向未来的基础架构设计。
4.1数据中心技术的变迁
过去几十年里,数据中心技术发生了天翻地覆的变化,2000年前后的互联网发展推动了数据中心从大型机时代转向独立服务器和集中存储架构。相比之下,独立服务器带来了比大型机更加灵活的系统的环境;可以通过网络访问让也降低了运维的复杂性。业务部门需要盈利,数据是关键因素。依赖于其灵活的容量调配和高可用设计,集中存储实现了可共享的、更大的存储资源池,并且可以提供数据的保护能力。池化让存储资源得到更充分的利用,RAID及基于存储的容灾复制技术使得数据得到充分保护,避免因为服务器宕机、管理员误操作等引起数据丢失。
底层负责提供服务,采用X86等通用硬件;
控制平面和数据平面分离,并对底层资源进行抽象;
可以通过可编程的接口实现高度的自动化;
分布式、可线性扩展的系统,是指从之前的单一集中模式处理业务,转向集群内所有节点分布式处理业务,并且可以在需要横向扩展时随时扩展系统的性能和容量。传统架构设计的前提是假定硬件可靠,至少在某种程度上是可靠的,正如我们看到服务器、存储等某个单点上是5个9高可用一样。但分布式系统的假定是硬件终究是会出问题,关键点是如何在一个简单的、以业务不中断的方式来处理故障。分布式系统的设计是为了调整和修复故障,并且能做到自恢复。任何一个故障出现,系统会通知管理员,而修复都可以按照管理员之前设定的流程自动化的去修复。这样就解决了单点故障,消除了系统中的瓶颈。灵活的线性扩展使得系统的计算、网络和存储容量可随时灵活扩展,客户可以从小规模开始,在任何规模都能获得一致性的性能和容量增长。
但是独立服务器和共享存储架构也存在很多问题,独立服务器带来的是竖井式的架构设计,相应的服务器资源利用效率不平均,总体来说利用率非常低下(平均5-10%)。另外服务器也经常成为单点故障。集中存储的系统复杂性也需要额外的管理工具和技术团队来运维,专用的存储系统也让用户很容易被锁定。
Nutanix超融合基础架构解决方案PPT课件
REST
Network Driver
…
Nutanix Cluster
Nutanix Cluster
Nutanix超融合生态链
应用与技术
VMware
Oracle
Weeam
客户操作系统 硬件与环境
Windows
Lenovo VMware
RedHat
KVM
OpenStack
基于互联网基因的超融合基础架构
Glance Image
Cork
Swift Object
Sahara Data
fw/lb/vpn as service
Ironic Baremetal
Openstack Services VM
Compute Driver
Image Driver
Volume Driver
将计算和存 储资源融合 在一起
软件定义的 基础架构
分布式架构, 自我恢复的
性能优化
系统
自动化运维 和深度分析
Nutanix的架构
Tier1 工作负载
(运行在所有节点上)
Nutanix Controller VM
(运行在每一个节点上)
动态的工作负 载分配和多种 Hypervisor
选择
抛弃SAN/NAS 的架构和阵列
IDC 2014: Nutanix是超融合基础架构市场的领导者
IDC declares Nutanix dominant leader in hyper-converged assessment with 52% market share in 2014
Highlights
“Nutanix has been a key player in the emergence of the hyperconverged market and was early to demonstrate demand for the technology.”
XX超融合解决方案建议书
XX超融合解决方案建议书目录1. 项目背景 (3)1.1. 传统架构面临的问题 (3)(1)架构复杂,管理困难,策略分散 (4)(2)集中式存储扩展性差,造成了存储割裂及竖井化 (4)(3)高昂的成本支出 (5)(4)业务部署速度缓慢 (5)1.2. 超融合产生背景 (5)1.3. 项目现状分析 (6)1.4. 项目需求 (7)2. XX超融合解决方案 (9)2.1. 项目方案建设思路 (9)2.2. 设计原则 (11)2.3. 超融合方案拓扑架构 (11)2.4. 超融合解决方案 (12)2.4.1. 六大软件能力的管理融合 (12)2.4.2. 存储虚拟化 (17)2.4.3. 网络虚拟化 (29)2.4.4. 安全 (30)2.4.5. 管理平台 (32)2.4.6. 云业务 (34)3. XX超融合解决方案价值 (38)3.1. 基础架构简化 (38)3.2. 降低TCO (38)3.3. 提高运营效率 (39)3.4. 横向线性扩展能力 (39)3.5. 业务连续性 (39)3.6. 数据可靠性 (40)3.7. 立体化安全体系架构 (41)4. XXXX超融合解决方案优势 (41)4.1. 融合至简 (41)4.2. 多维安全 (41)4.3. 一键上云 (42)1.项目背景1.1.传统架构面临的问题自上世纪90年代中后期开始,以大型机、小型机、大型数据库、集中式存储与业务高可用软件组成的IT架构适应了当时的数据大集中趋势,传统IT设备制造商在这一阶段得到了迅猛的发展,集中式的部署模式带来了对硬件性能、高可靠性及扩展性的需求增加。
2003年左右,服务器虚拟化技术开始普及,以VMware为代表的虚拟化软件厂商引领数据中心由物理硬件数据中心向虚拟化数据中心转变。
服务器虚拟化技术有效控制了数据中心内服务器数量规模的膨胀,提高了服务器的利用效率,并且,利用虚拟机迁移等技术大大降低了数据中心对服务器RAS特征的依赖。
nutanix技术白皮书
Nutanix 平台没有传统存储解决方案常见的复杂性问题。因此,Nutanix 平台相对简单,避免了在传统 架构中设计 SQL 基础架构时的常见问题。这种平台无需面对 LUN、RAID、FC 交换机、分区、掩 码、注册状态变更通知(RSCN)或复杂的存储多路径问题。
!
运行于 Nutanix 的企业应用
如果无法设置次站点,Nutanix 云连接可以无缝集成云服务,包括 Amazon Web Services(AWS),无 需第三方软件或不便维护的插件。利用 Nutanix 云连接,管理员可以通过公有云服务创建高效的长期 备份。这种功能无缝集成于 Nutanix 的数据保护功能,客户只需点击数下即可完成至云的备份与恢复 ——正如操作远程 Nutanix 系统。
地点 1
!
保护域 1 保护域 2 保护域 2
远程站点
远程站点
远程站点 远程站点
保护域 3 远程站点
保护域 4
地点 2
! !
地点 3
图 4:采用多路保护域,使 SQL Server 等企业应用实现更为灵活的灾难恢复。
对于需要近乎于零的“恢复点目标””与“恢复时间目标”的应用,Nutanix Metro Availability 可以在 5 毫 秒内或更短的回程时间(RTT)内将数据同步复制至 Metro 距离内的其它站点,实现不同位置的实时 数据复制。如发生灾难或进行计划内维护,次站点虚拟机可作为主站点虚拟机的失效备援,确保近 100%的应用运行时间。
用户
桌面
服务互动 应用/数据
数据集成 服务器
运行情报
微软应用
图 2:运行于 Nutanix 超融合基础架构的企业应用能够与其它虚拟工作负载同时运行。
超融合架构解决方案建议书
3
深信服aSV虚拟化平台作为介于硬件和操作系统之间的软件层,采用裸金属架构的X86虚拟化技术,实现对服务器物理资源的抽象,将CPU、内存、I/O等服务器物理资源转化为一组可统一管理、调度和分配的逻辑资源,并基于这些逻辑资源在单个物理服务器上构建多个同时运行、相互隔离的虚拟机执行环境,实现更高的资源利用率,同时满足应用更加灵活的资源动态分配需求,譬如提供热迁移、HA等高可用特性,实现更低的运营成本、更高的灵活性和更快速的业务响应速度。
深信服的超融合架构解决方案软件架构主要包含三大组件(服务器虚拟化aSV、网络虚拟化aNet、存储虚拟化aSAN)和一个管理平台(虚拟化管理平台VMP)。硬件架构上,可以通过一体机的方式实现开机即用,也可以采用通用X86服务器实现基础架构的承载。配合传统的园区网交换机(背板带宽和交换容量够用即可)即可完成整个平台的搭建,无需各种功能复杂、价格昂贵的数据中心级交换机。
图示:深信服超融合架构全景图
3.1
超融合架构层以服务器虚拟化为底层架构,扩展出网络虚拟化和存储虚拟化,通过所画即所得的方式能够快速的构建出业务逻辑,实现虚拟资源的动态调度和灵活扩展,同时全网流量可视,配置简易直观,运维灵活便捷
图示:所画即所得的业务逻辑
图示:全网流量可视视图
图示:简易直观的配置界面
图示:灵活便捷的运维操作
大规模二层网络技术(TRILL/SPB/FabricPath/OTV/EVB等):虽然能够支持二层网络的良好扩展,解决了生成树网络规模不大的问题,但该类大二层技术对网络设备均有特殊要求,需要通过升级软、硬件的方式才能支持此类新技术,部署成本提升。
1.3
在虚拟化环境下,虚拟机的大规模部署,使得物理交换机上MAC地址表项的大小(传统的接入交换机MAC地址表一般为:8K/16K,核心交换机单槽位一般为:128K/250K)限制了虚拟机的规模,特别是对于接入交换机而言,较小的MAC地址表项规格,严重的限制了整个大二层环境下数据中心的业务规模。
超融合系统方案建议书
添加节点
6
EMC ScaleIO™ 是一款软件,可以利用X86服务器本地存储,通过聚合服务器本地服务器的容量和性能以创建分布式块存储,按需提供存储容量和性能。ScaleIO安装在X86服务器的通用操作系统之上,由于对服务器的CPU/内存资源开销非常小,可以在运行ScaleIO软件的服务器上运行应用程序,这种部署方式也被称为融合部署模式。ScaleIO有很强的扩展性,单系统可扩展至上千节点。此外ScaleIO对运行的服务器、操作系统没有任何限制,可以基于实际需求任意组合,一个集群内可以支持不同厂商、不同型号、不同操作系统的服务器混合部署。对于被管理的物理磁盘介质,ScaleIO也不做任何限制,可以是HDD、SSD、PCIe闪存卡,甚至DAS,或者其他外置存储分配给该主机的逻辑卷。ScaleIO可以根据实际的需求结合不同的磁盘介质和物理服务器数量,组成具有不同性能、容量、可靠性的存储池,从而满足服务器虚拟化、数据库、开发测试与虚拟桌面等多种场景对不同性能、容量、可靠性的存储的需求。
云计算的交付模式:从小规模开始,系统可灵活动态扩展;
运维管理简单:统一交付,简化运维复杂度;
针对以上需求,神州云科公司联合合作伙伴为XXX推荐基于 EMCScaleIO分布式存储软件为核心的超融合一体机交付方案,为XXX提供健壮、可扩展的基础架构方案。本方案随后会介绍设计思路、神州云科超融合一体机、ScaleIO软件供XXX同事参考。
底层负责提供服务,采用X86等通用硬件;
Nutanix 超融合最佳实践指南之-Oracle数据库
2
Oracle License Model
• Named User Plus
Standard Edition One requires a minimum of 5 Named User or the total number of actual users, whichever is greater
11
1
物理机/虚拟机性能对比
12
物理机环境
Nutanix虚拟化环境
1
Nutanix运行RAC压力测试时的CPU/内存影响
在运行RAC 虚拟化的情况下(单机版Oracle虚拟机均已经关机),主机的性能情况下 图,CPU约为25%,两个运行RAC虚拟机的节点的内存负载为44.7%。
13
1
Nutanix Oracle单机测试
10
1
虚拟机配置
Oracle RAC虚拟机硬件配置(2节点): 每虚拟机配置为20 vCPU,64G内存,每虚拟机创建7块磁盘,用于分别存放OS(1块) /DATA(4块)/REDO(1块)/TMP文件(1块)。
Oracle单机版虚拟机硬件配置(20个): 每虚拟机配置为4 vCPU,16G内存,每虚拟机创建10块磁盘,用于分别存放OS(1块) /DATA(4块)/REDO(3块)/TMP文件(1块)。
Ex: 3360-G4 , E5-2630v3 (16core) Oracle have “Number of User license “ we do not introduce here, one core license about 25 name users
Standard Edition One
17.5 K x2 socket x3 hosts = 105 K
Nutanix和Mellanox Ethernet S解决方案介绍说明书
SOLUTION BRIEFToday’s enterprise IT infrastructure is distributed. Data and applications are dispersedacross on-promises and public clouds, but also distributed in remote office/branch office(ROBO) and disaster recovery (DR) sites. In such a multi-cloud environment, an end-to-end, unified platform is imperative to business continuity across these clouds without complex deployment, disjointed operations, and costly disruptions.Nutanix delivers a true unified enterprise cloud experience across the entire IT fabric from private cloud on premises, to public cloud, to remote DR site. Combining the agility and one–click simplicity of a public cloud with the security, control, predictable economics, and performance needed in a private cloud, Nutanix enterprise cloud streamlines datacenter operations with consumer–grade management that reduces complex operations such as disaster recovery to a single click and ensures business continuity of mission-critical applications.Mellanox Ethernet Storage Fabric (ESF) provides the network underpinning for Nutanix enterprise cloud infrastructure. Designed to make the network transparent, the Mellanox ESF delivers guaranteed performance for any workloads on any storage and integrated network automation to greatly simplify network design, provisioning, operation and troubleshooting, for local network in one cloud and datacenter interconnect (DCI) in multi-cloud environment.To provide a transparent, automated experience for application provisioning and mobility, data backup and disaster recovery, Mellanox ESF is integrated with Nutanix enterprise cloud in the management plane. Through REST APIs, Mellanox network orchestration and management software, NEO™, automates network provisioning from Nutanix Prism and eliminates complex and expensive manual network configuration for numerous network devices in multiple clouds.Business Continuity with Nutanix Enterprise Cloud and Mellanox DCIKEY BENEFITS• Unified hybrid cloud platform that runsapplication at scale• Automation of infrastructure and applications tosimplify IT operations across the board• Up to 100Gb/s VXLAN/ EVPN for DCI meetingmost RPO/RTO requirements• Zero-touch application mobility across multiplecloud for disaster recovery© Copyright 2018. Mellanox Technologies. All rights reserved.Mellanox, Mellanox logo, and ConnectX are registered trademarks of Mellanox Technologies, Ltd. LinkX and Mellanox NEO is a trademark of Mellanox Technologies, Ltd.Nutanix, the Enterprise Cloud Platform, the Nutanix logo and the other Nutanix products, features, and/or programs mentioned herein are registered trademarks or trade-marks of Nutanix, Inc. in the United States and other countries. This document is provided for informational purposes only and is presented ‘as is’ with no warranties of any kind, whether implied, statutory or otherwise.All other trademarks are property of their respective owners.350 Oakmead Parkway, Suite 100, Sunnyvale, CA 94085Tel: 408-970-3400 • Fax: 299089SB Rev1.4NETWORK AUTOMATION FOR BUSINESS CONTINUITY AND DISASTER RECOVERY As customers plan for business continuity and disaster recovery, they need solutions that go above and beyond just data replication, and automate the recovery of their entire environment in the event of a disaster. Networking often remains as the key challenge in DR implementation. The joint solution between Nutanix and Mellanox automates network provisioning as part of workload lifecycle management and allows workloads to preserve their IP addresses when they failover to the target site, enabling uninterrupted business continuity during partial or full failover. These capabilities are delivered using VXLAN/EVPN overlays that allow transparently stretching networks across the primary and secondary sites.EVPN is an open and standard-based innovation simplifying datacenter interconnect (DCI) over multiple clouds. By using EVPN based DCI,enterprise customers can stretch a Layer 2 network between data centers, and applications in the form of virtual machines (VMs or containers) can move easily with same IP and gateway, eliminating the traditional and costly way of manually re-configuring DNS entry. In the event of disaster recovery, the EVPN-based control plane automatically updates VM locations, and the client will continuously access the VM without evennoticing the change in VM location.The entire solution is seamless with the integration of Mellanox’s networkorchestrator NEO and Nutanix’s Prism. When a user makes a VM and anetwork using Prism, Mellanox’s NEO gets the API trigger, and based onthat, NEO orchestrates the ESF for data backup and recovery in other data centers. VMs operate seamlessly in either data center, even during DR events managed by Nutanix Prism. The orchestration is mainly based on EVPN DCI – where a VXLAN is stretched from the primary data location to the backup data location while keeping VLANs intact if needed. Anycast gateway functionality of EVPN helps seamless workload movement and essentially make the network abstracted from the compute point of view. In addition, NEO provides the following capacities:• VM-level network visualization • Automated VLAN provisioning for VM operations (creation, migration, and deletion)• One-click mLAG and RoCE configuration • Real-time and historical network telemetry (histogram) for traffic/performance monitoring • Switch software upgrade at scale •One-click NEO deployment from Nutanix CALM。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
目录经过近多年的持续稳定发展,树立了中国家电企业由小到大、由弱到强、并迅速走向世界的杰出典范。
如今的,已经不仅仅是中国的彩电大王,而且还成为了在海内外享有盛誉的特大型、多元化、国际化企业集团。
企业形成了军用产品、数字电视、数字平面显示、、健康空调、数字视听、数字网络、模具、数字器件、环保电源、技术装备、电子工程、化工材料等十三大产业群。
随着全球互联网浪潮和数字家电技术的迅猛推进,秉承“科技领先,速度取胜”的经营理念,利用以市场需求为特征的拉动力和技术进步为特征的推动力,优化资源配置,通过技术创新、系统整合数字技术、信息技术、网络技术和平板显示技术,改造和提升传统产业,最大限度地满足人们不断增长的物质和文化需要。
为了满足未来业务发展的需要,有效地解决数据安全、集中管控、降低运维成本、快速部署、跨平台访问、节能环保等问题,一直在关注通过虚拟化、分布式及超融合等互联网相关技术来解决现有数据中心的各种挑战,随着虚拟化及云计算的日益成熟,计划将其数据中心新业务系统运行在的基于互联网基因的超融合基础架构平台上。
需求调研数据中心调研现有数据中心存在的挑战包括:•服务器数量众多,管理变得越来越复杂;•新业务系统上线周期长,部署慢;•存储扩展性差,无法支撑新业务的性能需求;•新业务走向互联网化,传统架构无法实现线性扩展能力;•应用系统缺乏高可用性保护;•数据中心空间资源有限等。
目前,紧跟互联网战略,重点规划以软件为中心的业务较多,多数都是面向互联网以及物联网业务,比如:用户中心、支付平台、设备系统、微信电视、电商平台、企业移动办公软件平台及大数据平台等。
超融合与传统架构选择超融合基础架构(,或简称“”)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(),形成统一的资源池。
是实现“软件定义数据中心”的终极技术途径。
类似、等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。
使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。
图超融合架构示意图下表列举了使用超融合架构(计算存储)和传统数据中心三层架构(服务器光纤交换机存储)的对比:超融合方案设计新一代数据中心建设包含众多信息化应用的实施,与此相对应,机房服务器和存储设备也必将大量使用,并且随着后期应用扩充和服务扩容,服务器和存储设备的投入必然越来越庞大。
一方面,管理硬件基础设施的压力和成本会不断增大;另一方面,由于应用的多样性,服务器和存储难于有效整合,服务器的资源使用都远低于其实际的处理能力,计算能力和存储容量难以充分利用。
实施虚拟化云计算数据中心,可以有效整合服务器及存储资源,形成计算资源池,根据新一代数据中心各项应用的实际需要动态分配计算资源,最大效率的利用现有服务器及存储设备,并对数据中心硬件设备进行有效管理和监控。
设计原则在方案设计中我们将遵循以下总体原则:以业务需求为导向技术架构最终是为业务服务的,因此技术架构的设计一定要以业务的需求为导向,充分考虑非功能需求,例如系统的重要程度、安全要求、业务连续性等。
遵循互联网标准新业务系统都是面向互联网和物联网业务,因此架构体系要遵循互联网数据中心设计和建设标准,吸收互联网架构的优势。
提高资源利用率现已经部署了大量的服务器,资源使用率低是较突出的一个问题,因此在项目中,提高资源利用率成为一个重要的任务。
动态扩展性在发展趋势中,动态基础架构已经成为基础架构的发展方向。
使基础架构成为一个动态、灵活、具有弹性的基础架构,同时在实时地运营过程可进行灵活的资源动态调整。
资源扩展要体现在计算资源和存储资源的同时扩展。
分布式一切应用系统的高可用性是保障服务等级的重要因素,在架构设计中应该以软件定义为主,借助软件的分布式架构满足高可用性要求,实现系统架构和平台架构的无单点故障、无单点瓶颈问题,保障新一代的业务系统健壮性。
安全性在系统设计中,安全性是一个非常重要的问题。
在架构中需要考虑到虚拟化架构内外部的安全,包括数据安全等问题,以保证整个系统长期安全稳定的运行。
架构设计超融合架构在数据中心中承担着计算资源池和分布式存储资源池的作用,极大地简化了数据中心的基础架构,而且通过软件定义的计算资源虚拟化和分布式存储架构实现无单点故障、无单点瓶颈、弹性扩展、性能线性增长等能力;在虚拟化层可以自由选择的品牌,包括、和;而且通过简单、方便的管理界面,实现对数据中心基础架构层的计算、存储、虚拟化等资源进行统一的监控、管理和运维。
超融合基础架构形成的计算资源池和存储资源池直接可以被云计算平台进行调配,服务于、、、等、平台,对上层的互联网及物联网业务等进行支撑。
同时,分布式存储架构简化容灾方式,实现同城数据双活和异地容灾。
现有的超融合基础架构可以延伸到公有云,可以轻松将私有云业务迁到公有云服务。
图超融合数据中心架构方案描述计算资源基于架构的模块化数据中心由 (区块)和 (节点)组成。
下图为标准的一个 (区块)设备,仅占用个机架单元 (高)。
而每台标准的 (区块) 设备均含有四个独立的节点,每个(节点)都是一台独立的服务器。
却能够提供台标准路的服务器和最大存储容量。
图: (区块 ) 和 (节点 )的计算资源池是通过服务器虚拟化来实现的,可以支持、及平台提供的等,如图。
在虚拟化层形成计算资源池,为业务系统的虚拟机提供不同的服务质量和能力,包括了高可用( )、容错( )、在线迁移( )、资源动态负载均衡( )等虚拟化的特性。
同时,可以支持业务虚拟机在不同的之前进行迁移,也就是的能力,例如从迁移到等。
图超融合架构计算资源池(服务器虚拟化)存储资源提供的分布式文件系统()可以将一组集群内的节点组成一个统一的分布式存储平台。
对于虚拟化平台软件而言就是一个集中的共享式存储,与任何其他集中式存储阵列一样工作,且提供更为简单便捷的存储管理,无需像传统集中存储那样再配置、卷、或者组。
图分布式存储架构和功能分布式存储架构不仅同样提供传统存储的能力外,还提供更多的能力。
针对于虚拟化方面提供快照、克隆等机制,数据层实现本地优先访问、存储分层等性能机制,对数据进行压缩和去重提高存储可用容量,借助两份以上冗余数据提供存储的可靠性,增加或减少节点数据分布会自动平台,当节点宕机或磁盘损坏后具备数据自恢复能力等。
每个节点提供两种磁盘,标准配置为块,容量从到;块的,容量为和(部分型号节点提供和的)。
图分布式存储系统逻辑架构被设计成为非常动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:例如将计算密集型节点和存储密集型节点混合在一个集群中。
对于集群内部磁盘容量大小不同的,确保数据一致的分布非常重要。
有自带的称为磁盘平衡的技术,用来确保数据一致的分布在集群内部各节点上。
磁盘平衡功能与各节点的本地磁盘利用率和内置的(数据生命周期管理)一同工作。
它的目标是使得所有节点的磁盘利用率大致相等。
另外,节点通过实现和的数据热分层。
简单而言,磁盘的热分层时实现在集群内所有节点的和上,并且由负责触发数据在热分层之间的迁移。
本地节点的在热分层中是最高优先级的,负责所有本地虚拟机的读写操作。
并且还可以使用集群内所有其他节点的,因为层总是能提供最好的读写性能,并且在混合存储环境中尤为重要。
在超融合的虚拟化环境中,所有操作都将由本地节点上的 ()接管,以提供极高的性能。
据以往经验及用户习惯分析,一般运行服务器虚拟化的虚拟机对性能要求在左右,而单个节点可提供上的,节点集群可提供将近的。
完全可以满足需求。
网络拓扑在每个单节点上,默认提供如下网络端口:标配 , ()附加 , ()下图为推荐的网络拓扑图:图网络拓扑在计算虚拟化资源池中的每台虚拟化节点上会运行多台虚拟机,多台虚拟机之间共享网络,为了方便管理建议采用虚拟交换机来配置和管理网络,虚拟交换机可在数据中心级别提供集中和聚合的虚拟网络,从而简化并增强虚拟机网络。
在虚拟交换机的网络划分上,仍然可以采用的方式划分不同的子网,实现不同子网段的安全和隔离。
在网络隔离上,也可以采用网络虚拟化技术。
网络协议,即协议的扩展版本。
网络可以跨越物理边界,从而跨不连续的数据中心和集群来优化计算资源利用率。
采用逻辑网络与物理拓扑相互分离,使用的技术,所以无需重新配置底层物理网络设备即可扩展网络。
正因如此,也就无需再花费大量时间来规划如何调配及管理数量剧增问题。
在每个物理节点上有多种网络需求,包括管内部通讯网络、管理网络、生产网络等,因此每个节点需配置多块网卡,网络设计建议如下:备份容灾平台自带的存储层面及基于虚拟机粒度的备份恢复功能。
用户可以针对每个虚拟机设置不同的备份策略,包括备份计划和备份保留周期,会自动通过存储快照方式对虚拟机进行备份。
所有的快照均是基于存储层面的,与虚拟化层面(例如)的快照不同,存储层面的快照不会影响虚拟机的性能,对于虚拟化软件是完全透明的。
传统的备份方式通过网络传输备份数据,需要特定的备份窗口以免影响业务正常运行。
备份可以与传统的备份策略互补,既能保证对于重要的虚拟机进行高频度备份又不会占用额外的网络带宽。
例如:•对于普通虚拟机可以使用传统的备份方式每周进行全备,将备份数据保留在外部存储(例如磁带库中);同时使用备份进行每天甚至每小时的备份,数据直接保留在存储上以便快速恢复。
•对于比较重要的虚拟机可以使用传统备份每周全备、每天增量的方式,将备份数据保留在外部存储(例如磁带库中);同时使用备份进行每小时甚至每小时的备份,数据直接保留在存储上以便快速恢复。
•可以采用 (简称,只针对)、(和)、(和)等虚拟化备份解决方案作为有效补充。
图容灾功能,分为两个级别:和。
都是基于虚拟机快照的方式将更新数据异步复制到远程的集群中。
可以实现同城双数据中心之间的接近于“零”(需要裸光纤支持),即便是标准也能实现为小时(基于网络带宽和更新数据量),满足绝大多数异地容灾的业务需求。
容灾支持双向、一对多、多对一各种不同的复制模式。
并且可以通过自带的管理界面激活容灾中心的虚拟机进行容灾演练。
不再需要额外繁琐的灾难恢复计划,基于鼠标点击即可完成容灾切换。
使用解决方案可以在项目初始即确定今后的容灾规划,而无需在今后专门立项重复设计整体容灾架构。
依据用户规模和分支机构数量,通过简单灵活的软件配置,将已有分支机构的虚拟化环境远程容灾到总部数据中心,逐步形成星型的容灾架构。
方案优势使用虚拟化基础架构,在保证用户数据的高速访问和高可靠性同时,不再需要传统的集中式存储架构,避免在今后运行过程中出现设计初期忽视的性能问题。