虚拟化服务器网络接入层技术EVB

合集下载

EVB方案测试新挑战

EVB方案测试新挑战

今天的数据中心无论从规模、速度,还是复杂性方面,都在日益提高。

虚拟化、以太网光纤通道等新技术都着眼于帮助各类机构将数据、存储等多种数据流汇聚在单一的融合核心中。

在这一领域中,流传着一句古老的格言:“无法测量便无法管理”,因此对这些新技术的验证和性能评估是新技术实施的最初步骤。

EVB方案测试设计在虚拟环境中,虚拟交换机和设备缺乏物理连接点,因此对虚拟测试能力提出了新的要求。

在EVB方案中,要想测试服务器、虚拟网络设备和物理网络设备对虚拟化特性EVB的支持能力,必然会面临一些新的挑战和问题。

下面针对功能、性能、可靠性等数据中心重点关注的方面进行讨论。

1.挑战一:功能测试在评估以太网时,可靠性和特性的重视度与对性能的重视度往往不相上下。

虚拟环境中,功能测试的重要性与性能测试、可靠性测试是一样的,而且应当成为任何数据中心测试方法的一部分。

由于EVB技术还处于标准确定阶段,因此对于功能模块的测试,没有一套可供参照的衡量标准,需要我们在测试过程中根据各部件功能特性的实现方式进行摸索。

1.1 关注功能实现如图1所示,EVB方案主要由VM与虚拟交换机管理、虚拟交换机、网络管理、接入交换机四大部件组成。

功能测试方面应重点关注各组件功能实现是否完整、特性实现是否合理、易用性实现是否良好等。

图1 具备EVB功能的数据中心虚拟网络结构图1)VM与虚拟化交换机管理部件,主要完成对VM的生命周期管理、配置管理和监控等。

测试方面应该重点关注如下功能点:能够正常配置虚拟网络(如图2所示);图1.虚拟管理部件中配置虚拟网络页面能够从网络管理部件中获取正确的VSI配置信息,并据此生成VM,为VM创建VSI实例,并为VSI实例指定实例ID、指定VSI类型ID(见图3);图2.虚拟管理部件中获取VSI信息页面能够在虚拟服务器迁移过程中,通知原有VM发送去关联请求,通知新的VM从预关联状态转为关联状态,并指令VM在迁移发生时通知边缘交换机刷新数据报文的MAC地址。

华三交换无线控标参数-16.6.6

华三交换无线控标参数-16.6.6

交换机部分LS-7506E-X版本一:1、★要求采用CLOS正交多级交换架构,能够配置独立的交换网板与独立的主控板。

主控板、交换网板、业务板物理分离;2、★交换容量≥90Tbps,包转发率≥28000Mpps,业务插槽数量≥6,主控板槽位≥2,支持引擎、单板、电源热插拨,支持主控板卡、电源、接口模块等关键部件冗余配置。

提供官方产品彩页证明;3、★业务板卡与交换网板采用完全正交设计(90度),跨线卡业务流量通过正交连接器直接上交换网板,背板走线降低为零,极大规避信号衰减;提供官网截图及公开链接证明;4、支持以太网千兆电口,千兆光口,10GE端口、40G端口、100G端口;万兆光口单板密度≥48个,单槽位40G端口密度≥12个,100G接口单板密度≥2个;提供官网链接及选配信息截图证明;5、支持通过核心交换机任意万兆端口(非特定板卡或端口)即可实现将三台以上物理设备虚拟化为一台逻辑上的设备,虚拟化后可实现统一的转发表项、统一的管理界面以及跨物理设备的链路聚合,并且无需独立的硬件模块支持。

6、为适应未来云计算发展趋势,要求设备支持丰富的云计算数据中心特性,如FcoE、TRILL等功能。

7、支持OSPF/IS-IS/BGP GR,支持虚拟路由冗余协议(VRRP)、支持双引擎负载分担;提供软件热补丁技术,实现设备软件完全平滑升级。

8、支持纵向虚拟化,将配套的接入盒式设备虚拟成自身的远程接口板,形成单一的逻辑虚拟设备,在管理层面实现单一节点管理。

9、★支持扩展专用防火墙插卡、IPS插卡、NetStream、负载均衡功能插卡、应用控制插卡,以上扩展模块均为独立硬件,非通过扩展license方式实现,提供官网选配信息截图证明并提供独立的产品彩页。

10、厂商须通过TL9000电信业质量管理体系认证、CMMI4软件能力成熟度认证,提供证书复印件;11、厂商须通过ISO20000信息技术服务管理体系认证、ISO27001信息安全管理体系认证,提供证书复印件;12、★投标产品供应商必需通过知识产权管理体系认证,能够全面保护、并系统管理知识产权,支撑企业的技术创新能力,提供知识产权管理体系认证证书;13、配置要求:单台设备需配置双主控引擎、交换网板≥1块、交流电源≥3块;配置同时可用千兆电口≥24个、万兆SFP+光口≥4个、千兆光口≥20个;版本二:1、交换容量≥96Tbps,包转发率≥28800Mpps,提供官方产品彩页证明;2、★要求采用CLOS正交多级交换架构,能够配置独立的交换网板与独立的主控板。

数据中心网络三大热门技术

数据中心网络三大热门技术

数据中心网络三大热门技术这几年,云计算、大数据、虚拟化等新技术让人看得眼花缭乱,所有这些技术都要依托数据中心为基础来得以实现。

俗话说“经济基础决定上层建筑”,数据中心网络是实现这些功能的基础,这些迫使网络技术要进行变革,否则根本无法适应这些新东西,所以数据中心网络技术这几年也得到了迅速发展,各种新技术不断涌现,数据中心里最后的一块封锁基地终于得以开垦,这给数据中心带来了活力。

任何技术的进步都不是一撮而就的,需要经过各种磨练,还会有不同的声音,也会有不少的技术会不断消失,本文就来具体说一说数据中心网络涌现了哪些新技术。

虚拟交换技术虚拟交换技术是指允许在同一台物理设备上执行多种交换功能,或在网络中的多台物理设备上执行单功能交换,虚拟交换技术是多服务网络交换结构中的核心概念。

虚拟交换技术的实质是通过服务器来实现网络交换的部分功能,以此用服务器替代网络交换机的部分网络功能。

这样不仅可以简化网络,还可以降低网络建设的成本,可以将交换机的部分功能下移到服务器上,这种技术也是服务器厂商主推的技术,服务器厂商也是希望通过此技术来获得部分的网络市场,得以进入网络市场。

不过虚拟交换技术还是一个全新的领域,很多服务器厂商都有各的想法,难以形成统一的技术标准。

CISCO和VMware向IETF提交了虚拟交换技术草案VN-Link,CISCO是传统的网络硬件厂商,而VMware是虚拟化软件厂商,所以两者的结合也都各有自己的小算盘,所以这次的草案还是提出了两种解决方案,一种是通过软件实现,而另一种就是通过硬件网卡来实现,CISCO甚至还自己提出了基于硬件的虚拟交换方案。

要知道CISCO也是全球第五大服务器厂商,在服务器领域也很有实力。

CISCO提出了802.1qbb BPE和802.1BR,还有别的服务器厂商也提出了自己的虚拟交换技术,比如;802.1Qbg EVB、EVBA等,服务器厂商毕竟不是专做网络设备的,所以这些虚拟交换技术并未得到更多的响应,尤其是得到了网络厂商的积极反击,这样使得虚拟交换技术成为了实验室技术,至今未能大规模地走进数据中心,虽然绝大部分服务器都支持虚拟交换技术,但并未得到大规模的应用。

5G核心网基础总结

5G核心网基础总结

NFV架构1.NFVI层FusionSphere将服务器,存储的物理资源进行虚拟化。

VIM:华为产品FusionSphere OM(FM),负责虚拟化资源管理PIM:华为产品eSight,负责硬件管理eSight汇聚硬件告警,FM汇聚虚拟化资源告警,FM将虚拟化资源告警报给eSight,eSight 将硬件告警和虚拟化资源告警上报给U20202.NFVP层5GC网元(VNF)采用容器架构,容器建立在VM中,为虚机型容器。

VNFM:华为产品LCM,负责VNF的生命周期管理,可以对VNF进行扩缩容等。

CaaS-Master:华为产品FusionStage,负责容器的生命周期管理。

FusionStage告警作为VNFM的一部分向U2020上报网元VNF告警直接上报给U20203.VNFO层OSS:华为产品U2020NFVO:华为产品NFVO5GC网络架构5GC网元控制面网元间接口为服务化接口5GC网元功能简介AMF:(AMF执行MME中的接入控制和移动性管理功能)注册管理:连接管理,可达性管理,移动性管理,接入鉴权,接入授权合法监听转发UE和SMF间的SM消息转发UE和SMSF间的SMS消息SMF:(SMF相当于MME中的会话管理功能、SGW-C 和PGW-C功能的聚合)会话管理:UE IP 地址分配和管理,选择和控制UPF,配置UPF的流量定向,转发至合适的目的网络策略控制和Qos合法监听CDR搜集下行数据通知(Downlink Data Notification).UPF: (UPF相当于SGW-U和PGW-U)数据面锚点连接数据网络的PDU会话点报文路由和转发:报文解析和策略执行合法监听(UP collection)UDM:(UDM相当于HSS)签约数据管理用户服务NF注册管理产生3GPP AKA 鉴权参数基于签约数据的接入授权(e.g. 漫游限制)保证业务/会话连续性AUSF:(AUSF相当于3GPP AAA Server)支持鉴权服务功能PCF: (PCF相当于PCRF)支持统一策略管理网络行为提供策略规则给控制面功能,由其执行从UDR获取签约相关信息以便做策略决策NEF: (NEF相当于SCEF,但是现在NEF开放的能力还未包括IMS部分向AF、第三方、边缘计算提供3GPP网络的能力和事件从AF获取外部应用信息以便提高给3GPP网络内部信息与外部信息的翻译功能将用于向外部开放的信息存储在UDR中UDR:存储和检索UDM的签约数据存储和检索PCF的策略数据存储和检索NEF的结构化数据,供网络能力开放存储和检索NEF的应用数据,供应用检测NSSF:选择服务UE的一组网络切片实例确定允许的NSSAI,并且如果需要的话,映射到签约的S-NSSAI确定配置的NSSAI,并且如果需要的话,映射到签约的S-NSSAI确定用于服务UE的AMF集合,或者可能基于配置通过查询NRF来确定候选AMF的列表NRF: (类似于dns功能)支持服务和网络功能发现功能维护网络功能信息,包括可用性及其支持服务5G网络接口及协议介绍控制面所有NF之间的交互采用服务化接口,同一种服务可以被多种NF调用,降低NF之间接口定义的耦合度,最终实现整网功能的按需定制,灵活支持不同的业务场景和需求服务化接口:服务化接口包含以下接口:Namf, Nsmf, Nudm, Nnrf, Nnssf, Nausf, Nnef, Nsmsf, Nudr, Npcf, N5g-eir, Nlmf.应用层包括JSON、Protobuf等编解码协议5G SBA接口协议栈的5层(从上到下)所采取的协议是:(1)API设计方式以Restful为主;(2)IDL(接口描述语言)采取OpenAPI 3.0;(3)序列化协议采取JSON;(4)应用层采取HTTP/2;(5)传输层采取TCP。

H3C CAS 虚拟化平台架构

H3C CAS 虚拟化平台架构

1.1H3C CAS 虚拟化平台架构H3C公司依托强大的研发实力、广泛的市场应用和技术理解,以客户需求为导向,为企业新一代云计算数据中心基础架构提供一体化的云计算平台解决方案,帮助用户实现快速、可靠的虚拟化数据中心和云业务应用部署。

H3C CAS 云平台云计算解决方案包含统一的计算资源池、统一的网络资源池、统一的存储资源池,并提供了一体化的监控和部署工具进行统一的虚拟化与云业务管理,通过简洁的管理界面,轻松地统一管理数据中心内所有的物理资源和虚拟资源,不仅能提高管理员的管控能力、简化日常例行工作,更可降低IT环境的复杂度和管理成本。

CAS云计算管理平台服务器虚拟化、存储虚拟化和网络虚拟化只是构成云计算基础设施的硬件资源池,在云计算环境中,最重要的一点是实现资源池的自动化,避免人力对于基础设施的过多干预。

H3C CAS(Cloud Automation System)通过自动化的管理平台和手段,帮助用户实现对云硬件资源和业务流程的快速部署与自动化维护和管理。

H3C CAS云计算管理平台由三个组件构成:CVK:Cloud Virtualization Kernel,虚拟化内核平台运行在基础设施层和上层客户操作系统之间的虚拟化内核软件。

针对上层客户操作系统对底层硬件资源的访问,CVK用于屏蔽底层异构硬件之间的差异性,消除上层客户操作系统对硬件设备以及驱动的依赖,同时增强了虚拟化运行环境中的硬件兼容性、高可靠性、高可用性、可扩展性、性能优化等功能。

CVM:Cloud Virtualization Manager,虚拟化管理系统主要实现对数据中心内的计算、网络和存储等硬件资源的软件虚拟化管理,对上层应用提供自动化服务。

其业务范围包括:虚拟计算、虚拟网络、虚拟存储、高可用性(HA)、动态资源调度(DRS)、虚拟机容灾与备份、虚拟机模板管理、集群文件系统、虚拟交换机策略等。

CIC:Cloud Intelligence Center,云业务管理中心由一系列云基础业务模块组成,通过将基础架构资源(包括计算、存储和网络)及其相关策略整合成虚拟数据中心资源池,并允许用户按需消费这些资源,从而构建安全的多租户混合云。

云计算基础架构

云计算基础架构

池的云网融合,构建统一、融合、联动的基础架构系统,不仅提升了应用系统部署的可靠性、灵活性、可扩展性和可管理性,而且也促进了云计算的应用和实践。

目前人民检察院的信息化系统也将从传统的数据中心架构向云基础架构演进,满足检察院信息系统的快速批量部署、系统性能优化、降低管理维护工作量的需求,适应侦查信息化和装备现代化的科技强检需求,实现侦查方式战略转变、推动犯罪侦查工作和检务管理工作科学发展。

云计算系统已经在政府、教育、大企业、运营商等行业得到越来越多的成熟应用,涌现出一批国内外的具有完善解决方案的云基础架构供应商,包括华三、VMware、微软、亚马逊等公司,尤其是国内的华三公司还可以提供集计算、存储、网络、虚拟化和云管理于一体的整体式交付的UIS统一基础架构系统,可以显著简化检务云基础架构的部署和运维成本,而且凭借丰富的工程实施经验提供专业快捷的运维保障,将云基础架构系统的部署时间缩短70%以上。

vxlan的题

vxlan的题

vxlan的题1800字中文文章写作技巧:以“VXLAN的题”为例VXLAN(Virtual Extensible LAN)是一种网络虚拟化技术,被广泛应用于数据中心网络中。

本文将以“VXLAN的题”为题目,探讨VXLAN的原理、应用和未来发展趋势。

一、VXLAN的原理VXLAN是一种用于构建虚拟二层网络的技术,它通过扩展虚拟局域网(VLAN)的范围,允许数据中心网络中的虚拟机在不同的物理网络间通信。

VXLAN使用24位的VXLAN标识符(VNI)来实现虚拟机间的通信。

具体来说,VXLAN在封装数据包时,在原始数据包的基础上加上VXLAN头部,其中包含了源VTEP(VXLAN Tunnel Endpoint)和目标VTEP的信息。

二、VXLAN的应用VXLAN的虚拟二层网络技术为跨数据中心的虚拟机迁移提供了便利。

虚拟机可以在不同的数据中心间进行迁移,而无需改变虚拟机的IP地址和MAC地址。

同时,VXLAN还支持单播、组播和广播等多种通信模式,满足不同应用场景的需求。

三、VXLAN的优势1. 扩展性:VXLAN使用24位的VNI,可以实现数百万个虚拟网络的扩展。

2. 灵活性:VXLAN可以在不同的传输层协议上实施,如UDP、TCP等,提供了更大的灵活性和适应性。

3. 安全性:VXLAN支持基于网络隔离的安全策略,提供了更加灵活的网络安全解决方案。

4. 可管理性:VXLAN可以与现有网络管理系统集成,提供统一的管理接口。

四、VXLAN的挑战和未来发展趋势尽管VXLAN在数据中心网络中得到了广泛应用,但也面临一些挑战。

其中之一是性能和延迟方面的问题。

由于VXLAN需要在数据包中添加额外的头部信息,会增加网络负载和引入一定的延迟。

另外,VXLAN在大规模部署时,可能会遇到扩展性和管理的困难。

为了应对这些挑战,VXLAN技术正在不断演进和改进。

一方面,通过硬件加速和优化算法等手段,提升VXLAN的性能和减少延迟。

5G无线网络架构及虚拟化技术(中国电信)

5G无线网络架构及虚拟化技术(中国电信)

<7>
CU/DU分离架构的驱动力:更好适应5G业务发展
用户面集中,更好的DC 分流: 边缘计算使能新业务的敏捷 部署:
RAN的控制面、用户面锚点可 RAN的控制面 用户面锚点可 以和分布式网关,甚至是 Application共部署,提供更开 放的接口,使能更多的 Application。
APP Server
<4>
计算带宽的假设条件
Items Channel Bandwidth Modulation Number of MIMO layer IQ bitwidth Assumption [100MHz(DL/UL)] [256QAM(DL/UL)] [8(DL/UL)] [2*(7~16)bit(DL), 2*(10~16)bit(UL)] [2*16bit(DL/UL)] Number of antenna port [32(DL/UL)] Option 7a Option 7b Option 7c Option 8 Option 7b Option 7c(UL) Option 8 Applicability All options
z 3G 3GPP确定Option2(PDCP-RLC划分)为CU-DU之间的划分方案,作 确定O i 2 C C划分 为C 之间的划分方案 作 为R15NRWI阶段的标准化工作重点 z 在R15阶段,DoCoMo牵头底层划分方案的SI研究,希望打开DU和 在R15阶段 DoCoMo牵头底层划分方案的SI研究 希望打开DU和 AAU之间的接口 z 目前3GPP已确定相关文档编号,接口和功能划分的细节还在讨论中
做世界级综合信息服务提供商
<17>
ETSINFV架构
做世界级综合信息服务提供商

数据中心网络架构

数据中心网络架构

最佳实践组网图1、数据中心二层网流结构(核心/接入)组网图2、数据中心三层网络结构(核心/汇聚/接入)组网图3、 FW/IPS/SLB旁挂方案组网图4、高密度服务器接入组网图5、高密度服务器接入组网图6、高密度服务器接入组网图7、多服务器集中存储解决方案组网图8、双机双阵列存储集群解决方案组网图9、 D2D备份解决方案组网图10、近线CDP解决方案组网图11、远程容灾备份解决方案(IX1000)组网图12、WSAN广域数据集中解决方案组网图H3C新一代数据中心解决方案数据中心是数据大集中而形成的集成IT应用环境,是各种业务的提供中心,是数据处理、数据存储和数据交换的中心。

近年来,数据中心建设成为全球各行业的IT建设重点,国内数据中心建设的投资年增长率更是超过20%,金融、制造业、政府、能源、交通、教育、互联网和运营商等各个行业正在规划、建设和改造各自的数据中心。

随着企业信息化的深入和新技术的广泛使用,传统数据中心已经无法满足后数据中心时代的高效、敏捷、易维护的需求。

H3C基于在数据通信领域的长期技术积累,推出了新一代数据中心解决方案,目标是在以太网和IP技术的基础上,实现数据中心基础网络架构的融合,物理及虚拟资源的统一接入,安全策略的统一部署和数据中心资源的统一管理,以帮助用户简化传统数据中心的基础架构、加固核心数据的保护、优化数据中心的应用性能,为用户提供即可靠安全又高效敏捷的新一代数据中心。

新一代数据中心之---- 融合随着企业信息化发展的不断深入和信息量的爆炸式增长,数据中心正面临着前所未有的挑战。

从数据中心的网络结构看,存在相对独立的两张以上网络:数据网(Data)、存储网(SAN)、HPC集群网,基本现状如下:·数据中心的前端访问接口通常采用以太网进行互联而成,构成了一张高速运转的数据网络;·数据中心后端的存储更多的是采用NAS、FC SAN等;·服务器的并行计算则大多采用Infiniband或以太网·不同的服务器之间存在操作系统和上层软件异构、接口与数据格式不统一·服务器配置多块网卡,分别与多张网络相连在此现状下,数据中心每扩展一台服务器,相关的三张异构的网络均需要同步扩展,扩展难度和成本投入均很大,因此融合架构成了数据中心未来网络的发展趋势。

政府电子政务外网和专网参数

政府电子政务外网和专网参数
必须具有安规、电磁兼容标准认证《CE认证》证书,提供有效证书的复印件。
IPS厂商必须具有《ISO9001质量管理体系认证》,提供有效证书复印件。
IPS厂商必须具有《ISO14001体系认证》,提供有效证书复印件。
厂商必须通过CMMI4认证以保障产品代码质量与稳定性,提供证书复印件
4、城域网汇聚交换机〔1台〕
入侵防御功能
攻击特征库数量≥3000+、病毒特征库数量≥8000+、支持的协议识别数量≥800+,提供设备界面截图证明
支持深入七层的分析检测技术,能检测防范的攻击类型包括:蠕虫/病毒、木马、后门、DoS/DDoS攻击、探测/扫描、间谍软件、网络钓鱼、利用漏洞的攻击、SQL注入攻击、缓冲区溢出攻击、协议异常、IDS/IPS逃逸攻击等
技术指标
参数要求
系统架构
采用多级交换架构,能够配置独立的交换网板与独立的主控板,交换网板与主控板硬件槽位别离
冗余
控制引擎、电源以及交换网板支持冗余
插槽数量
整机业务插槽数量≥10个
性能要求
交换容量≥256Tbps,包转发率≥67500 Mpps
虚拟化功能
支持N:1虚拟化,将多台物理设备虚拟化为1台逻辑设备,且设备虚拟化后能完全作为1台设备来统一配置管理
支持FCOE,使数据中心LAN网络和存储网络通过FCoE和CEE的部署,实现数据中心前端网络和后端网络架构的融合
多业务特性
支持硬件无线控制器业务模块
支持防火墙业务模块
支持IPS入侵防御业务模块
支持LB负载均衡业务模块
★服务
提供厂商3年维保服务、提供厂商针对此项目的授权书、提供厂商服务承诺函
★其它要求
支持P2P、IM、视频等网络滥用协议的检测识别,支持的网络滥用协议至少包括迅雷、BT、eDonkey/eMule、Kugoo下载协议、多进程下载协议〔网络快车、网络蚂蚁〕等P2P应用, MSN、QQ、ICQ等IM应用, PPLive、PPStream、 下载视频文件、沸点电视、QQLive等网络视频应用;可在识别的基础上对这些应用流量进行阻断或限流

政府电子政务外网和专网参数

政府电子政务外网和专网参数
电子政务外网设备清单
名称
数量
单位
电子政务外网路由器
2

数据中心交换机
2

城域网入侵检测
1

城域网汇聚交换机
1

城域网上网行为管理
1

电子政务外网出口防火墙
1

接入单位防火墙
70

接入单位出口路由器
70

运维管理系统
1

万兆单模模块
10

千兆单模模块
70

电子政务内网设备清单
名称
数量
单位
政务内网接入路由器
任何一种技术标准,实现应用在网络上的承载,并能够与其他网
络业务分离
支持数据中心跨站点二层互联技术,让连接到IP核心网的数据
中心站点间能够实现二层互通
路由协议
支持IPv4静态路由、RIPV1/V2、OSPF、BGP等,支持IPv6静态
路由、RIPng、OSPFv3、BGP4+等
MPLSVPN
支持P/PE功能,支持L3MPLSVPN,支持分层VPLS,以及
时实现1:N虚拟化功能
支持纵向虚拟化功能,支持将汇聚和接入设备通过纵向虚拟化技
术形成一台纵向逻辑虚拟设备,相当于把接入设备作为一块远程
接口板加入核心设备,在支持在持在N:1虚拟化环境下同时实现
纵向虚拟化功能
★数据中心特性
支持FCoE功能,实现数据中心前端数据网络和后端存储网络架
构的融合,统一进行配置和管理
何影响,所有主控引擎必须支持热插拔
交换网板
所有交换网板必须为独立形态(非主控集成),占用专用的硬件
槽位

H3C CAS 虚拟化平台架构

H3C CAS 虚拟化平台架构

1.1H3C CAS 虚拟化平台架构H3C公司依托强大的研发实力、广泛的市场应用和技术理解,以客户需求为导向,为企业新一代云计算数据中心基础架构提供一体化的云计算平台解决方案,帮助用户实现快速、可靠的虚拟化数据中心和云业务应用部署。

H3C CAS 云平台云计算解决方案包含统一的计算资源池、统一的网络资源池、统一的存储资源池,并提供了一体化的监控和部署工具进行统一的虚拟化与云业务管理,通过简洁的管理界面,轻松地统一管理数据中心内所有的物理资源和虚拟资源,不仅能提高管理员的管控能力、简化日常例行工作,更可降低IT环境的复杂度和管理成本。

CAS云计算管理平台服务器虚拟化、存储虚拟化和网络虚拟化只是构成云计算基础设施的硬件资源池,在云计算环境中,最重要的一点是实现资源池的自动化,避免人力对于基础设施的过多干预。

H3C CAS(Cloud Automation System)通过自动化的管理平台和手段,帮助用户实现对云硬件资源和业务流程的快速部署与自动化维护和管理。

H3C CAS云计算管理平台由三个组件构成:CVK:Cloud Virtualization Kernel,虚拟化内核平台运行在基础设施层和上层客户操作系统之间的虚拟化内核软件。

针对上层客户操作系统对底层硬件资源的访问,CVK用于屏蔽底层异构硬件之间的差异性,消除上层客户操作系统对硬件设备以及驱动的依赖,同时增强了虚拟化运行环境中的硬件兼容性、高可靠性、高可用性、可扩展性、性能优化等功能。

CVM:Cloud Virtualization Manager,虚拟化管理系统主要实现对数据中心内的计算、网络和存储等硬件资源的软件虚拟化管理,对上层应用提供自动化服务。

其业务范围包括:虚拟计算、虚拟网络、虚拟存储、高可用性(HA)、动态资源调度(DRS)、虚拟机容灾与备份、虚拟机模板管理、集群文件系统、虚拟交换机策略等。

CIC:Cloud Intelligence Center,云业务管理中心由一系列云基础业务模块组成,通过将基础架构资源(包括计算、存储和网络)及其相关策略整合成虚拟数据中心资源池,并允许用户按需消费这些资源,从而构建安全的多租户混合云。

云计算平台项目技术方案

云计算平台项目技术方案

XXX云计算平台工程技术方案V1.02021年4月11日目录第1章建设云计算平台的重要意义1.1 传统IT面临的困境自从上世纪90年代开始,IT行业在全球范围内得到了迅猛的开展,IT平台的规模和复杂程度出现了大幅度的提升,与此同时,许多企业的IT机构却因为这种提升而面临着一种新的困境:高昂的硬件本钞票和治理运营本钞票、缓慢的业务部署速度以及缺乏统一治理的根底架构。

高昂的本钞票支出随着IT规模的不断膨胀,数据中心内的效劳器数量、网络复杂程度以及存储容量急剧增长,随之带来的是高昂的硬件本钞票支出以及运营本钞票支出〔电力、制冷、占地空间、治理人员等〕。

根底结构本钞票:托管、冷却、连接效劳器以及为效劳器提供电源都会随着效劳器数量的增长而导致本钞票大量增加。

仅效劳器电力需求一项就占总本钞票一大块,估量数据中心的1000台效劳器的电力本钞票每年都在45,000美元以上。

硬件本钞票:每年效劳器在容量和计算能力上都呈增长趋势。

随着效劳器变得越来越强大,最大化的利用这些超强资源也变得愈加困难。

IT组织和应用效劳用户适应为每个应用效劳部署一台独立效劳器以确保完全操纵该应用效劳。

几乎在所有情况下,部署这些功能强大的效劳器将会使效劳器过剩50-500%。

软件本钞票:通常效劳器需要从操作系统或应用软件厂商那儿猎取许可证与支持。

治理本钞票:迄今为止,治理本钞票是效劳器本钞票中最大的一个局部,分析专家估量治理本钞票占效劳器总拥有本钞票的50-70%。

IT技术人员不得不对软硬件进行升级、打补丁、备份以及修复,部署新的效劳器及应用,维护用户账户并执行许多其他任务。

随着效劳器数量的增长,IT部门发觉他们面临着满足相关效劳器治理需求的挑战。

缓慢的业务部署速度新的效劳器、存储设备和网络设备的部署周期较长,整个过程包括硬件选型、采购、上架安装、操作系统安装、应用软件安装、网络配置等。

一般情况下,那个过程需要的工作量在20~40小时,交付周期为4~6周。

H3C CAS 虚拟化平台架构

H3C CAS 虚拟化平台架构

1.1H3C CAS 虚拟化平台架构H3C公司依托强大的研发实力、广泛的市场应用和技术理解,以客户需求为导向,为企业新一代云计算数据中心基础架构提供一体化的云计算平台解决方案,帮助用户实现快速、可靠的虚拟化数据中心和云业务应用部署。

H3C CAS 云平台云计算解决方案包含统一的计算资源池、统一的网络资源池、统一的存储资源池,并提供了一体化的监控和部署工具进行统一的虚拟化与云业务管理,通过简洁的管理界面,轻松地统一管理数据中心内所有的物理资源和虚拟资源,不仅能提高管理员的管控能力、简化日常例行工作,更可降低IT环境的复杂度和管理成本。

CAS云计算管理平台服务器虚拟化、存储虚拟化和网络虚拟化只是构成云计算基础设施的硬件资源池,在云计算环境中,最重要的一点是实现资源池的自动化,避免人力对于基础设施的过多干预。

H3C CAS(Cloud Automation System)通过自动化的管理平台和手段,帮助用户实现对云硬件资源和业务流程的快速部署与自动化维护和管理。

H3C CAS云计算管理平台由三个组件构成:CVK:Cloud Virtualization Kernel,虚拟化内核平台运行在基础设施层和上层客户操作系统之间的虚拟化内核软件。

针对上层客户操作系统对底层硬件资源的访问,CVK用于屏蔽底层异构硬件之间的差异性,消除上层客户操作系统对硬件设备以及驱动的依赖,同时增强了虚拟化运行环境中的硬件兼容性、高可靠性、高可用性、可扩展性、性能优化等功能。

CVM:Cloud Virtualization Manager,虚拟化管理系统主要实现对数据中心内的计算、网络和存储等硬件资源的软件虚拟化管理,对上层应用提供自动化服务。

其业务范围包括:虚拟计算、虚拟网络、虚拟存储、高可用性(HA)、动态资源调度(DRS)、虚拟机容灾与备份、虚拟机模板管理、集群文件系统、虚拟交换机策略等。

CIC:Cloud Intelligence Center,云业务管理中心由一系列云基础业务模块组成,通过将基础架构资源(包括计算、存储和网络)及其相关策略整合成虚拟数据中心资源池,并允许用户按需消费这些资源,从而构建安全的多租户混合云。

虚拟化服务器网络接入层技术探讨(VEPA介绍)

虚拟化服务器网络接入层技术探讨(VEPA介绍)

虚拟化服务器网络接入层技术探讨本文通过对VEB以及正处于标准化进程中的EVB标准的技术特点进行分析,为读者提供一些技术对比参考,以便于未来建设数据中心时选择最优的虚拟化服务器网络接入技术。

虚拟化服务器网络接入层技术探讨随着服务器虚拟化技术的成熟,数据中心部署的虚拟化服务器数量越来越多。

虚拟机①的出现使数据中心服务器网络接入层出现了一个被称为VEB(Virtual Ethernet Bridge)的网络层。

在服务器上采用纯软件方式实现的VEB就是通常所说的“VSwitch”。

虽然VSwitch 的实现方式简单,技术兼容性好,但也面临着诸多问题,例如VSwitch占用CPU资源导致虚拟机性能下降、虚拟机的流量监管、虚拟机的网络策略实施以及VSwitch管理可扩展性等问题。

借助支持SR-IOV特性的网卡可以实现基于硬件的VEB。

相比VSwitch,硬件EVB减少了CPU开销,但这种硬件方案与VSwitch类似,仍然不能有效解决虚拟机流量监管、网络策略实施及管理可扩展性问题。

为此,IEEE Data Center Bridging (DCB)任务组(DCB任务组是IEEE 802.1工作组的一个组成部分)正在制定一个新标准——802.1Qbg Edge Virtual Bridging(EVB),该标准将VEPA(Virtual Ethernet Port Aggregator)作为基本实现方案。

VEPA的核心思想是,将虚拟机产生的网络流量全部交由与服务器相连的物理交换机进行处理,即使同一台服务器上的虚拟机间流量,也将在物理交换机上查表处理后,再回到目的虚拟机上。

VEPA方式不仅借助物理交换机解决了虚拟机间流量转发,同时还实现了对虚拟机流量的监管,并且将虚拟机接入层网络纳入到传统服务器接入网络管理体系中。

EVB标准同时还定义了VEB、VEPA和Director IO的混和实现方案,即多通道技术(Multichannel Technology)。

H3C CAS 虚拟化平台架构

H3C CAS 虚拟化平台架构

1.1H3C CAS 虚拟化平台架构H3C公司依托强大的研发实力、广泛的市场应用和技术理解,以客户需求为导向,为企业新一代云计算数据中心基础架构提供一体化的云计算平台解决方案,帮助用户实现快速、可靠的虚拟化数据中心和云业务应用部署。

H3C CAS 云平台云计算解决方案包含统一的计算资源池、统一的网络资源池、统一的存储资源池,并提供了一体化的监控和部署工具进行统一的虚拟化与云业务管理,通过简洁的管理界面,轻松地统一管理数据中心所有的物理资源和虚拟资源,不仅能提高管理员的管控能力、简化日常例行工作,更可降低IT环境的复杂度和管理成本。

CAS云计算管理平台服务器虚拟化、存储虚拟化和网络虚拟化只是构成云计算基础设施的硬件资源池,在云计算环境中,最重要的一点是实现资源池的自动化,避免人力对于基础设施的过多干预。

H3C CAS(Cloud Automation System)通过自动化的管理平台和手段,帮助用户实现对云硬件资源和业务流程的快速部署与自动化维护和管理。

H3C CAS云计算管理平台由三个组件构成:CVK:Cloud Virtualization Kernel,虚拟化核平台运行在基础设施层和上层客户操作系统之间的虚拟化核软件。

针对上层客户操作系统对底层硬件资源的访问,CVK用于屏蔽底层异构硬件之间的差异性,消除上层客户操作系统对硬件设备以及驱动的依赖,同时增强了虚拟化运行环境中的硬件兼容性、高可靠性、高可用性、可扩展性、性能优化等功能。

CVM:Cloud Virtualization Manager,虚拟化管理系统主要实现对数据中心的计算、网络和存储等硬件资源的软件虚拟化管理,对上层应用提供自动化服务。

其业务围包括:虚拟计算、虚拟网络、虚拟存储、高可用性(HA)、动态资源调度(DRS)、虚拟机容灾与备份、虚拟机模板管理、集群文件系统、虚拟交换机策略等。

CIC:Cloud Intelligence Center,云业务管理中心由一系列云基础业务模块组成,通过将基础架构资源(包括计算、存储和网络)及其相关策略整合成虚拟数据中心资源池,并允许用户按需消费这些资源,从而构建安全的多租户混合云。

虚拟化交换网络

虚拟化交换网络
7
• 可扩展、安全和高性能虚拟化
工作负载是什么(Workload)
•工作负载是计算机所执行工作的逻辑分类,它包括谁在做工作(Who)、 做什么工作(What)和如何做工作(How) •工作负载是以业务观点来看工作分类,非IT技术特征。 •这些工作包括部分系统运行应用、用户应用连接和应用交互。 •工作绩效指标包括响应时间和吞吐量,也就是服务响应水平。 • 响应时间是用户发出请求与系统响应之间的时间差。 • 吞吐量是在一定时间内完成了多少工作。 •工作负载工作内容不一样,IT资源消耗就不一样 • CPU计算型 • 内存缓冲型 • 存储IOPS型、存储带宽型 • 网络IOPS型、网络带宽型
业务接口层
•云计算是企业IT资源管理的 高级阶段,随业务变化而变化, 而不仅仅是IT技术简单合并与 应用。
云 计 算 厂ቤተ መጻሕፍቲ ባይዱ商 参 考 架 构
云 计 算 服 务 交 付 体 系
应用平台层 分布式操作系统层 虚拟化层 硬件架构层 数据中心设施层
云 计 算 管 理 平 台
云 计 算 安 全 架 构
4
虚拟化时代催生高效企业
虚拟化交换网 络主机层基本 原理
17
虚拟化交换网络原理示意图
2G以上 2G以上 高带宽 2-3G 低带宽 100M
FT iSCSI
NFS
FT
VMotion
SC
vnic
vnic
vnic
vnic
VMKernel TCP/IP协议栈
流量整形
vmnic
10G
vmnic
10G
二层虚拟桥接交换机
二层物理交换机
24
增强虚拟化交换网络性能之三——SR-IOV原理
SR-IOV是内嵌在以太网卡内部的具有完整功能二层 交换机,是基本网络转发平面

H3CCAS虚拟化平台架构

H3CCAS虚拟化平台架构

1.1H3C CAS 虚拟化平台架构H3C公司依托强大的研发实力、广泛的市场应用和技术理解,以客户需求为导向,为企业新一代云计算数据中心基础架构提供一体化的云计算平台解决方案,帮助用户实现快速、可靠的虚拟化数据中心和云业务应用部署。

H3C CAS 云平台云计算解决方案包含统一的计算资源池、统一的网络资源池、统一的存储资源池,并提供了一体化的监控和部署工具进行统一的虚拟化与云业务管理,通过简洁的管理界面,轻松地统一管理数据中心内所有的物理资源和虚拟资源,不仅能提高管理员的管控能力、简化日常例行工作,更可降低IT环境的复杂度和管理成本。

CAS云计算管理平台服务器虚拟化、存储虚拟化和网络虚拟化只是构成云计算基础设施的硬件资源池,在云计算环境中,最重要的一点是实现资源池的自动化,避免人力对于基础设施的过多干预。

H3C CAS(Cloud Automation System)通过自动化的管理平台和手段,帮助用户实现对云硬件资源和业务流程的快速部署与自动化维护和管理。

H3C CAS云计算管理平台由三个组件构成:CVK:Cloud Virtualization Kernel,虚拟化内核平台运行在基础设施层和上层客户操作系统之间的虚拟化内核软件。

针对上层客户操作系统对底层硬件资源的访问,CVK用于屏蔽底层异构硬件之间的差异性,消除上层客户操作系统对硬件设备以及驱动的依赖,同时增强了虚拟化运行环境中的硬件兼容性、高可靠性、高可用性、可扩展性、性能优化等功能。

CVM:Cloud Virtualization Manager,虚拟化管理系统主要实现对数据中心内的计算、网络和存储等硬件资源的软件虚拟化管理,对上层应用提供自动化服务。

其业务范围包括:虚拟计算、虚拟网络、虚拟存储、高可用性(HA)、动态资源调度(DRS)、虚拟机容灾与备份、虚拟机模板管理、集群文件系统、虚拟交换机策略等。

CIC:Cloud Intelligence Center,云业务管理中心由一系列云基础业务模块组成,通过将基础架构资源(包括计算、存储和网络)及其相关策略整合成虚拟数据中心资源池,并允许用户按需消费这些资源,从而构建安全的多租户混合云。

技术参数及性能要求

技术参数及性能要求

采购需求文件A分标管控;14.★支持收集网站访问日志,记录用户所有访问网站行为;支持收集搜索引擎日志,记录用户的搜索内容;支持收集IM通讯软件日志,记录用户登陆、注销、收发消息、收发文件等行为;支持收集邮件日志,记录邮件发件人、收件人、主题、正文、附件等信息;15.支持单用户全天行为分析报表,一个界面同时展示用户名、用户组、在线时长、虚拟身份(如QQ号码、微博账号等)、日志关联情况、全天流量使用分布、网站访问类别分布、全天关键网络行为轴等信息;16.流量管理:支持通道化的QoS支持基于源地址、用户、服务、应用、时间进行带宽控制,并支持配置保障带宽、限制带宽、带宽借用、每IP带宽、带宽优先级等QoS动作,时间选择支持基于日计划、周计划、单次计划等;17.★支持4级层次化QoS支持多级用户/用户组嵌套;18.支持用户(用户组)+应用(应用组)+时间等条件的组合进行多线路带宽管理;19.支持应用、用户流量统计,应用流量支持趋势图、饼状图呈现,可查看某一应用的流量趋势图和其Top流量用户;20.文件缓存:支持对指定URL的文件内容进行缓存加速,需缓存文件可手动上传及更新;【投标人须于投标文件中提供具备上述功能的功能截图并加盖生产厂家当地办事处授权章】,可查看缓存可用空间和命中次数;21.用户认证功能:支持WE田ortal认证功能,支持本地认证、Radius认证、LDAP认证,支持选择同一用户是否允许在多个客户端同时登陆,支持配置强制重新认证间隔,支持配置认证通过后重定向URL要求本机自身支持短信认证功能,支持微信认证和短信认证,微信认证通过DPI方式实现;22.双机热备:支持双机热备及会话同步,支持同步配置、运行状态,支持配置抢占模式和抢占延时,支持配置HA监控接口;23.系统维护:web管理界面支持Ping、Traceroute、TCP Syn诊断工具,可支持基于接口、协议、IP地址、端口和应用进行网络抓包,并可下载导出分析;24.配置管理:支持中文Web界面管理及命令行管理,支持基于SSL协议的远程安全管理;25.系统日志要求:支持本地日志记录和远程日志输岀。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

一、VEB(VirtualEthernetBridge)1.虚拟化服务器与VEB虚拟化服务器①是使用虚拟化软件(如VMWareESX、CitrixXEN)在一台物理服务器上虚拟出一台或多台虚拟机(VirtualMachine,VM),安装在服务器上的虚拟化软件被称为VMM (VirtualMachineMonitor)。

虚拟机运行在一个隔离环境中,是具有完整硬件功能的逻辑服务器,每个虚拟机具有自己的操作系统和应用程序。

一台服务器上的多个虚拟机可以互不影响的同时运行,并复用物理机资源。

虚拟化软件为虚拟机提供一套虚拟的硬件环境,包括虚拟的CPU、内存、存储设备、I/O设备(如网卡)以及虚拟交换机等,如图1。

图1虚拟化服务器模型在虚拟化服务器中,虚拟以太网交换机是一个比较特殊的设备,具有重要的作用。

虚拟机是通过虚拟交换机向外界提供服务器的。

在虚拟化的服务器中,每个虚拟机都变成了一台独立的逻辑服务器,它们之间的通信通过网络进行。

每个虚拟机被分配了一个虚拟网卡(不同的虚拟机网卡有不同MAC地址)。

为实现虚拟机之间以及虚拟机与外部网络的通信,必须存在一个“虚拟以太网交换机”以实现报文转发功能。

在IEEE的文档中,“虚拟以太网交换机”正式英文名称为“VirtualEthernetBridge②”,简称VEB。

VEB可以在VMM中采用纯软件方式实现,也可以借助支持SR-IOV特性的网卡通过全硬件方式实现。

2.软件VEB的技术特性软件VEB(或称VSwitch③)是目前较为成熟且产品化较好的技术方案。

在一个虚拟化的服务器中,VMM为每个虚拟机创建一个虚拟网卡,对于在VMM中运行的VSwitch,每个虚拟机的虚拟网卡对应到VSwitch的一个逻辑端口上,服务器的物理网卡对应到VSwitch与外部物理交换机相连的上行逻辑端口上。

虚拟机的报文接收流程如下:VSwitch首先从物理网卡接收以太网报文,之后根据VMM 下发的虚拟机MAC与VSwitch逻辑端口对应关系表(静态MAC表,VSwitch通常不做MAC地址学习)来转发报文。

虚拟机报文发送流程为:当报文的MAC地址在外部网络时,VSwitch直接将报文从物理网卡发向外部网络;当报文目的MAC地址是连接在相同VSwitch上的虚拟机时,贝I」VSwitch 通过虚拟机与逻辑网卡的对应关系表来转发报文。

如图2所示。

VSwitch方案具有以下优点:•虚拟机间报文转发性能好。

VSwitch实现虚拟机之间报文的二层软件转发,VSwitch对报文的转发能力只受限于CPU性能、内存总线带宽,因此虚拟机间报文的转发性能(带宽、延迟)非常好;•节省接入层物理交换机设备。

例如,数据中心需要部署WEB服务器,且WEB服务器网关指向防火墙。

这里可将一台服务器虚拟化成多个虚拟机,每个虚拟机作为一个WEB服务器,将VSwitch作为WEB服务器的网络接入层设备,将服务器物理网卡与防火墙端口互联即可完成组网,无需部署物理交换机设备;•与外部网络的兼容性好。

VSwitch采用软件实现,对现有网络标准的兼容性好,所以VSwitch与外部网络设备不存在互联兼容性问题。

但VSwitch方案也存在一些缺点:•消耗CPU资源。

虚拟机产生的网络流量越高,则基于软件实现的VSwitch就需要占用越多的CPU资源用于报文的转发处理,从而减弱了服务器支持更多虚拟机的能力。

特别是在虚拟机到外部网络的流量很大时,CPU的开销会更大;•缺乏网络流量的可视性。

VSwitch缺少内部流量监管能力,例如端口报文统计、端口流镜像、Netstream等特性。

上述特性的缺失,一方面导致虚拟机之间的流量无法被网管系统所监管;另一方面也使得网络发生故障时,难于定位问题原因;•缺乏网络控制策略的实施能力。

当前数据中心接入交换机都具有很多实现网络控制策略的特性,例如端口安全,QOS、ACL等。

而VSwitch因顾及到CPU开销问题,通常不支持上诉特性。

因此限制了数据中心的端到端网络控制策略(如端到端的QOS 、整网安全部署策略等)的部署能力;缺乏管理可扩展性。

随着数据中心虚拟机数量的增加,VSwitch 的数量随之增加,而传统的VSwitch 必须被单独的配置管理,由此增加了网络的管理工作量。

VMWare 公司推出的“分布式交换机①VW )”技术,可以将最多64个VSwitch 作为一个统一的设备进行管理。

但这种技术只有限的改善了管理扩展性问题,并未从根本上解决外部网络管理与VSwitch 管理的统一性问题。

3. 硬件VEB 的技术特性硬件VEB 的设计思想是将VEB 功能从VMM 移植到服务器物理网卡,通过网卡硬件改善VSwitch 占用CPU 资源而影响虚拟机性能的问题。

这种硬件VEB 方案必须采用支持SR-IOV (Single-RootI/OVirtualization )特性的PCIe 网卡。

SR-IOV 是对PCIe (PCIExpress )标准的一种延伸,它可以使一个PCIe 适配器(如网卡)通过一个共享的PCIe 物理接口同时起到多个独立器件(多个独立网卡)的作用。

如图3,物理服务器上的虚拟机可直接访问PCIe 网卡上的寄存器和I/O 队列,由于绕过了VMM 对虚拟机I/O 请求的代理中转过程,可显著减少CPU 开销,并且降低虚拟机访问外部网络的时延,这种工作模式也被称为“directorIO”。

图3SR-IOV 实现PCIe 虚拟化采用硬件VEB 方案时,VMM 只实现SR-IOV 网卡驱动程序(资源分配、中断处理等),不再参与虚拟机与外部网络,以及虚拟机之间的报文转发流程。

如图4,对于从虚拟机发往外部网络的报文,由虚拟机操作系统的驱动程序直接操作网卡寄存器进行发送;对于外部网络发往虚拟机的报文,网卡根据目的MAC,将报文放入虚拟机对应的接收队列,虚拟机操作系统的驱动程序再通过DMA 或中断方式进行接收处理;对于虚拟机之间的报文转发,网卡芯片通过查MAC 表(静态配置,通常不支持MAC 学习)进行转发处理。

L PFnO VrrtualNIC VFnO VFn1 VFn2 Physicalh!ICSystemDevice ConfigSpaceVM 0AppApp …AppVMDe^ceConfig 日re GuestOS 0 Intel^V^cIntel®VT-d图4基于SR-IOV的硬件VEB基于SR-IOV网卡技术的硬件VEB方案的优点如下:•相对于VSwitch(软件VEB),减少了CPU占用率。

借助SR-IOV技术将报文转发硬件化,不再需要类似VSwitch软件参与报文处理;•提高了虚拟机操作系统访问物理网卡的性能。

尤其是当虚拟机与外部网络有大量报文流量时,由于实现了虚拟机对PCIe设备的直接访问和操作,显著降低了从虚拟机到物理网卡的报文处理延时;•支持SR-IOV的网卡,可虚拟化出256个虚拟网卡,提高了物理服务的网络虚拟化能力。

硬件VEB改进了VSwitch(软件VEB)的性能,但硬件方案仍然存在一些局限性:•缺乏网络可视性。

支持SR-IOV的网卡不能解决网络流量监管问题。

考虑到网卡成本,通常不会在网卡上添加流量监管处理芯片(如流量镜像、Netstream、端口报文统计信息等)。

而且,由于硬件实现缺少灵活性,有可能硬件VEB的网络流量监管特性比VSwitch方案还少;•缺乏网络控制策略的实施能力。

同样是考虑到网卡成本的问题,很难在网卡上实现基于硬件的网络控制策略(如QOS、ACL等);•缺乏管理的可扩展性。

每个物理网卡就是一个硬件VEB,所以随着虚拟化服务器数量的增加,网络中会存在很多硬件VEB需要分别进行管理,由此带来了管理可扩展性问题。

相比VSwitch方案,由于一个VSwitch可包含多个物理网卡(如网卡捆绑上行),而硬件VEB则必须是每个物理网卡对应一个VEB,所以硬件VEB的管理可扩展性比VSwitch还差;•缺乏主流操作系统产品的支持。

为支持SR-IOV技术,需要虚拟机的操作系统与VMM 采用“准虚拟化(Paravirtualized)”工作模式,这种模式要求虚拟机操作系统内核做必要的修改,以支持directorIO。

从目前了解到的情况看,主流操作系统厂商都不支持这种模式。

“准虚拟化+Director10”方式主要用在Linux操作系统以及基于Linux内核实现的虚拟化技术上(XEN)。

4.VEB技术特性总结VEB实现了虚拟机之间以及虚拟机与外部网络之间的报文转发。

在VEB的两种实现方案中,软件VEB(VSwitch)的通用性好,虚拟机之间的转发性能好;硬件VEB基于网卡SR-I0V 技术实现,对CPU资源占用小。

但两种VEB方案始终没有解决的问题是:虚拟机间流量的监管、网络策略的部署,以及管理可扩展性。

二、802.1QbgEVB标准1.EVB标准的设计思想正是认识到软件和硬件VEB的局限性,IEEE802.1工作组正着手制定一个新标准802.1QbgEdgeVirtualBridging(EVB),其核心思想是,将虚拟机产生的网络流量全部交由与服务器相连的物理交换机进行处理,即使同一台服务器的虚拟机间流量,也发往外部物理交换机进行转发处理。

如图5,由VM1发往VM2或VM3的报文,首先被发往外部交换机,查表后,报文沿原路返回服务器°802.1Qbg标准的作者——HP的PaulCongdon,将这种工作模式形象的描述为“发卡弯④(hairpinturn)”转发。

h蛆:PH<安全控制图5EVB的基本架构EVB改变了传统的VEB对报文的转发方式,使得大多数报文在外部网络交换机被处理。

与VEB相似的,EVB可以通过软件方式实现(类似于VMM中的VSwitch),也可以在支持SR-IOV技术的网卡上实现。

由于将所有流量都引向外部交换机,因此与虚拟机相关的流量监管、控制策略和管理可扩展性问题得以很好的解决。

但是,由于流量被从虚拟机上引入到外部网络EVB技术也带来了更多网络带宽开销的问题。

例如,从一个虚拟机到另一个虚拟机的报文,占用的网络带宽是传统方式的两倍,其中一半带宽用于从源虚拟机向外网交换机传输,另一半带宽用于从外部交换机向目的虚拟机传输。

EVB的出现并不是完全替换VEB 方案,但是EVB对于流量监管能力、安全策略部署能力要求较高的场景(如数据中心)而言,是一种优选的技术方案。

以太网交换机在处理报文转发时,对于从一个端口上收到的报文,不会再将该报文从该端口发回。

因此,当使能EVB特性的服务器接入到一个外网交换机上时,该交换机相应端口必须支持上述“发卡弯”转发方式。

当前大多数交换机的硬件芯片都能支持这种“发卡弯”转发特性,只要修改驱动程序即可实现,不必为支持“发卡弯”方式而增加新的硬件芯片。

相关文档
最新文档