大二层网络技术

合集下载

项目5(3)-构建跨数据中心的大二层虚拟化网络

项目5(3)-构建跨数据中心的大二层虚拟化网络

在 服 务 器 node1 上 测 试 与 node2 服 务 器 192.168.30.3连通性时,发现是无法正常通信的, 如图5-55所示。
图5-55 任务5-3 测试服务器node1与node2的192.168.30.3连通性
配置双数据中心服务器互联
2.使用eNSP连接到服务器node1和node2
(1)搭建拓扑 在eNSP中,使用两台AR220路由和cloud云设备构建本任务 拓扑,使用的cloud云设备如图5-56所示。
路由器各端口的IP地址配置如表5-5所示,在路由器R1和R2 上配置各接口的IP地址。
表5-5 两台路由器所连设备和接口IP地址
图5-56 任务5-3 采用Cloud云设备
(3)地理位置灵活性 跨数据中心的 VXLAN 网络可以使企业具备更大的地理范围, 可以灵活地在不同地区建立数据中心,并通过网络进行连接。 这样可以更好地满足用户的地域性需求,提供更快速和稳定的 服务。
(4)数据共享和协作 跨数据中心的 VXLAN 网络可以实现数据的共享和协作。不 同数据中心的用户和应用程序可以通过网络访问和共享数据, 促进跨地域的合作和信息交流。
必备知识
2.跨数据中心的VXLAN网络特点
(1)备份和灾难恢复 跨数据中心的 VXLAN 网络可以用于备份虚拟机和数据到远 程数据中心,以确保在主数据中心发生故障或灾难时,能够快 速恢复服务并保持业务连续性。
(2)负载均衡和容错 通过跨数据中心的 VXLAN 网络,可以将负载分布到多个数 据中心,实现负载均衡和容错。当一个数据中心发生故障时, 流量可以自动转移到其他可用的数据中心,从而提高系统的可 用性。
在“端口创建”下的绑定信息选项,首先添加一块UDP网卡, 默认选中的就是UDP网卡,“端口类型”默认即可,然后单击“增 加”按钮,添加后如图5-58所示。

大二层网络----Vxlan技术

大二层网络----Vxlan技术

⼤⼆层⽹络----Vxlan技术1. ⼆层转发的概念 ⼆层转发即交换机依据mac地址进⾏转发,交换机维护⼀张mac表,接受到报⽂后识别报⽂的⽬的mac地址,然后将数据包转发到mac 表对应的端⼝上。

VxLAN技术⾸先会抽象⼀个overlay平⾯,这个overlay平⾯就等同于⼀个⼆层交换机,其次会定义若⼲VTEP节点,VTEP 节点就相当于⼆层交换机的端⼝,同时维护⼀个vtep节点的mac表,数据报⽂到达vtep节点后,解析⽬的vtep的mac地址,然后将数据包转发到mac 表对应的vtep节点上,与⼆层交换极其类似,因此VxLAN这种在物理平⾯上抽象出的逻辑平⾯⼜被称为⼤⼆层平⾯。

这种技术主要⽤在数据中⼼⾥⾯。

2. 现今数据中⼼⾯临的挑战a、虚拟机规模受⽹络设备表项规格的限制在传统⼆层⽹络环境下,数据报⽂是通过查询MAC地址表进⾏⼆层转发。

服务器虚拟化后,VM的数量⽐原有的物理机发⽣了数量级的增长,伴随⽽来的便是VM⽹卡MAC地址数量的空前增加。

⽽接⼊侧⼆层设备的MAC地址表规格较⼩,⽆法满⾜快速增长的VM数量。

b、⽹络隔离能⼒有限VLAN作为当前主流的⽹络隔离技术,在标准定义中只有12⽐特,因此可⽤的VLAN数量仅4096个。

对于公有云或其它⼤型虚拟化云计算服务这种动辄上万甚⾄更多租户的场景⽽⾔,VLAN的隔离能⼒⽆法满⾜。

c、虚拟机迁移范围受限由于服务器资源等问题(如CPU过⾼,内存不够等),虚拟机迁移已经成为了⼀个常态性业务。

虚拟机迁移是指将虚拟机从⼀个物理机迁移到另⼀个物理机。

为了保证虚拟机迁移过程中业务不中断,则需要保证虚拟机的IP地址、MAC地址等参数保持不变,这就要求虚拟机迁移必须发⽣在⼀个⼆层⽹络中。

⽽传统的⼆层⽹络,将虚拟机迁移限制在了⼀个较⼩的局部范围内。

为了应对传统数据中⼼⽹络对服务器虚拟化技术的限制,VXLAN技术应运⽽⽣,其能够很好的解决上述问题。

3. Vxlan格式及封装格式Vxlan通过将逻辑⽹络中通信的数据帧封装在物理⽹络中进⾏传输,封装和解封装的过程由VTEP节点完成。

大二层需要网络数据中心虚拟化(下)篇

大二层需要网络数据中心虚拟化(下)篇
发点很简单,属于工程派。既然二层网络的核心是环路问题,而环路问题是随着冗余设备和链路产生的,那么如果将相互冗余的两台或多台设备、两条或多条链路合并成一台设备和一条链路,就可以回到之前的单设备、单链路情况,环路自然也就不存在了。尤其是交换机技术的发展,虚拟交换机从低端盒式设备到高端框式设备都已经广泛应用,具备了相当的成熟度和稳定度。因此,虚拟交换机技术成为目前应用最广的大二层解决方案。
隧道技术的代表是TRILL、SPB,都是通过借用IS-IS路由协议的计算和转发模式,实现二层网络的大规模扩展。这些技术的特点是可以构建比虚拟交换机技术更大的超大规模二层网络(应用于大规模集群计算),但尚未完全成熟,目前正在标准化过程中。同时传统交换机不仅需要软件升级,还需要硬件支持。
2. 跨数据中心
L2oL3技术也有许多种,例如传统的VPLS(MPLS L2VPN)技术,以及新兴的Cisco OTV、H3C EVI技术,都是借助隧道的方式,将二层数据报文封装在三层报文中,跨越中间的三层网络,实现两地二层数据的互通。这种隧道就像一个虚拟的桥,将多个数据中心的二层网络贯穿在一起。
另外,也有部分虚拟化和软件厂商提出了软件的L2 over L3技术解决方案。例如VMware的VXLAN、微软的NVGRE,在虚拟化层的vSwitch中将二层数据封装在UDP、GRE报文中,在物理网络拓扑上构建一层虚拟化网络层,从而摆脱对网络设备层的二层、三层限制。这些技术由于性能、扩展性等问题,也没有得到广泛的使用。
二、 大二层需要有多大
既然二层网络规模需要扩大,那么大到什么程度合适?这取决于应用场景和技术选择。
1. 数据中心内
大二层首先需要解决的是数据中心内部的网络扩展问题,通过大规模二层网络和VLAN延伸,实现虚拟机在数据中心内部的大范围迁移。由于数据中心内的大二层网络都要覆盖多个接入交换机和核心交换机,主要有以下两类技术。

大型二层网络在数据中心中的应用分析

大型二层网络在数据中心中的应用分析

高带宽需求可以提供更快的网络 速度和更大的数据吞吐量,从而 提高数据中心的性能和效率。
数据中心需要不断升级和扩展其网 络基础设施,以满足日益增长的高 带宽需求。
低延迟要求
数据中心对网络 延迟要求极高, 需要保证低延迟
传输
低延迟要求能够 提高数据传输效 率,减少网络拥

数据中心需要具 备低延迟的网络 架构,以满足业
负载均衡:大型二层网络能够 实现负载均ห้องสมุดไป่ตู้,提高网络的稳 定性。
快速收敛:大型二层网络具备 快速收敛能力,能够快速检测 和恢复故障。
容错能力:大型二层网络具有 较强的容错能力,能够抵御网 络故障的影响。
成本低
大型二层网络采用廉价的 铜缆作为传输介质,相比
光纤而言,成本更低。
大型二层网络采用以太网 技术,具有较低的设备成
0 3
高可用性网络 还需要考虑安 全性问题,采 取相应的安全 措施来保护数 据和网络安全
0 4
可扩展性
数据中心的网络架构应具备 灵活的扩展能力,能够快速 适应不同规模和不同类型的 应用需求。
数据中心需要具备高可扩展性, 以支持不断增长的业务需求。
数据中心的网络设备应具备高 性能和低延迟的特点,以确保 数据传输的稳定性和高效性。
路由收敛:大型 二层网络可能导 致路由收敛问题 ,需要采取措施 优化路由收敛时 间。
路由策略:需要 制定合理的路由 策略,以满足不 同业务的需求和 优化网络性能。
安全性问题
数据泄露风险 网络安全威胁 未经授权的访问 加密和认证需求
解决方案与应对策略
优化网络架构:采用扁平化网络架构,减少层次,提高网络效率。
数据中心的网络管理应具备自 动化和智能化的特点,以降低

大二层网络技术介绍

大二层网络技术介绍
将三层路由的思想引入二层交换中, 利用路由协议的灵活选路,无环, 负载,高可靠性等 各项优点,解决之前的环路和生成树的各种问题。
TRILL技术
Ingress RBridge
原二层数据帧
Egress RBridge
原二层数据帧
新二层数据帧 TRILL帧头 原二层数据帧 源Nickname 目的Nickname
• 开启VSS时,两台VSS成员设备通过相互协商, 一个成为Active状态,另一个成为Standby状态。
• Active状态设备用于控制整个VSS,Standby状态设备将控制流量通过VSL交由 Active统一处理。两台设备同时转发数据层面流量。
• VSL是一条特殊的链路,用于VSS系统中的两台设备间传输控制流量和数据流量。 VSL最多支持八条10GE捆绑,利用Etherchannel技术实现负载和冗余。 其中的控制流量优先级高于数据流量。
• Standby设备使用VSL监控Active设备,检测到Active故障时,Standby设备将 把自己转换成Active状态。
设备虚拟化技术之VSS简单配置
Switch1: Switch1(config)# switch virtual domain 100 // 指定交换机1为VSS100区域内的设备 Switch1(config-vs-domain)# switch 1 // 指定VSS区域内该交换机的ID Switch2: Switch2(config)# switch virtual domain 100 // 指定交换机2为VSS100区域内的设备 Switch2(config-vs-domain)# switch 2 // 指定VSS区域内该交换机的ID
TRILL技术的优点

大二层网络技术

大二层网络技术

大二层网络技术背景及主要技术方向一、为什么需要大二层传统的三层数据中心架构结构的设计是为了应付服务客户端-服务器应用程序的纵贯式大流量,同时使网络管理员能够对流量流进行管理。

工程师在这些架构中采用生成树协议(STP)来优化客户端到服务器的路径和支持连接冗余,通常将二层网络的范围限制在网络接入层以下,避免出现大范围的二层广播域;虚拟化从根本上改变了数据中心网络架构的需求,既虚拟化引入了虚拟机动态迁移技术。

从而要求网络支持大范围的二层域。

从根本上改变了传统三层网络统治数据中心网络的局面。

具体的来说,虚拟化技术的一项伴生技术—虚拟机动态迁移(如VMware的VMotion)在数据中心得到了广泛的应用,虚拟机迁移要求虚拟机迁移前后的IP和MAC地址不变,这就需要虚拟机迁移前后的网络处于同一个二层域内部。

由于客户要求虚拟机迁移的范围越来越大,甚至是跨越不同地域、不同机房之间的迁移,所以使得数据中心二层网络的范围越来越大,甚至出现了专业的大二层网络这一新领域专题。

【思考1、IP及MAC不变的理由:对业务透明、业务不中断】【思考2、IP及MAC不变,那么为什么必须是二层域内?IP不变,那么就不能够实现基于IP的寻址(三层),那么只能实现基于MAC的寻址,既二层寻址,大二层,顾名思义,此是二层网络,根据MAC地址进行寻址】传统网络的二层为什么大不起来在数据中心网络中,“区域”对应VLAN的划分。

相同VLAN 内的终端属于同一广播域,具有一致的VLAN-ID,二层连通;不同VLAN内的终端需要通过网关互相访问,二层隔离,三层连通。

传统的数据中心设计,区域和VLAN的划分粒度是比较细的,这主要取决于“需求”和“网络规模”。

传统的数据中心主要是依据功能进行区域划分,例如WEB、APP、DB,办公区、业务区、内联区、外联区等等。

不同区域之间通过网关和安全设备互访,保证不同区域的可靠性、安全性。

同时,不同区域由于具有不同的功能,因此需要相互访问数据时,只要终端之间能够通信即可,并不一定要求通信双方处于同一VLAN或二层网络。

大二层的工作原理

大二层的工作原理

大二层的工作原理
大二层是计算机网络中的一个重要概念,它是指数据链路层的第二个子层,也叫子网接入层或网桥层。

它的主要作用是实现不同物理网络之间的通信。

大二层的工作原理主要是通过MAC地址来实现通信控制,也就是数据的传输控制。

当一个数据包到达网桥时,它会比对源MAC地址和目的MAC地址,判断数据包应该转发至哪个端口。

如果源MAC地址和目的MAC地址都在同一个端口,则网桥会把数据包丢弃;如果源MAC 地址和目的MAC地址在不同的端口,则网桥会将数据包转发到目标端口。

为了避免网络中的环路,大二层采用了“学习”机制。

当一个数据包到达网桥时,网桥会将源MAC地址和对应的端口记录下来,当下一次有数据包到达时,它会对比目的MAC地址是否已经在记录中有对应端口,如果有,则直接转发;如果没有,则把数据包广播到其他的端口上。

总之,大二层工作原理使得不同物理网段之间的通信变得简单、高效,实现了数据包的快速传输和有效控制。

TRILL大二层的网络方案

TRILL大二层的网络方案

在云计算时代下,数据中心内部一般采用分布式架构处理海量数据存储、挖掘、查询、搜索等相关业务,服务器和服务器之间需要进行大量的协同工作,在服务器之间产生了大量的东西向流量。

其次,数据中心普遍采用虚拟化技术,虚拟化的直接后果是使单位计算密度极大提升,物理服务器吞吐量将比虚拟化之前成数倍提升。

还有为了更大幅度地增大数据中心内业务可靠性、降低IT成本、提高业务部署灵活性、降低运维成本高,需要虚拟机能够在整个数据中心范围内进行动态迁移。

上面这些是云计算时代下的数据中心业务需求,这些需求促进了数据中心网络架构的演进,催生了大二层网络架构的诞生,TRILL便是一种构建数据中心大二层组网的技术。

本文旨在分析云计算时代下数据中心对网络架构的需求,并提出华为基于TRILL的解决方案,帮助用户在建设数据中心网络时,能选择合适的网络解决方案以更好满足云计算业务需求。

云计算时代下数据中心对网络架构要求• 虚拟机任意迁移作为云计算的核心技术之一,服务器虚拟化已经得到越来越广泛的应用。

为了更大幅度地增大数据中心内业务可靠性、降低IT成本、提高业务部署灵活性、降低运维成本高,需要虚拟机能够在整个数据中心范围内进行动态迁移,而不是局限在一个汇聚或接入交换机范围内进行迁移。

传统数据中心一般采用二层+三层组网架构,POD内采用二层组网,POD间通过三层网络进行互联。

VM只能在一个POD内进行迁移,如果需要跨二层区域迁移,需要更改VM 的IP地址,如果没有负载均衡器LoadBalance屏蔽等手段,应用会中断。

在云计算时代,为提升大量闲置服务器的资源利用率,计算虚拟化技术已经逐步在IDC 进行应用。

IDC运营商为了更充分的利用数据中心资源,VM需要更大的迁移范围,可以通过TRILL构建的大二层网络来实现。

• 无阻塞、低延迟数据转发云计算时代下的数据中心流量模型和传统运营商流量模型不同,数据中心中主要是服务器和服务器之间的东西向流量,数据中心网络相当于是服务器之间的总线。

大二层网络技术

大二层网络技术

1传统STP技术应用分析STP是IEEE 802.1D中定义的一个应用于以太网交换机的标准,这个标准为交换机定义了一组规则用于探知链路层拓扑,并对交换机的链路层转发行为进行控制。

如果STP发现网络中存在环路,它会在环路上选择一个恰当的位置阻塞链路上的端口——阻止端口转发或接收以太网帧,通过这种方式消除二层网络中可能产生的广播风暴。

然而在实际部署中,为确保网络的高可用性,无论是数据中心网络还是园区网络,通常都会采用具有环路的物理拓扑,并采用STP阻塞部分端口的转发。

对于被阻塞端口,只有在处于转发状态的端口及链路发生故障时,才可能被STP加入到二层数据帧的转发树中。

图1 STP引起的带宽利用率不足的问题STP的这种机制导致了二层链路利用率不足,尤其是在网络设备具有全连接拓扑关系时,这种缺陷尤为突出。

如图1所示,当采用全网STP二层设计时,STP将阻塞大多数链路,使接入到汇聚间带宽降至1/4,汇聚至核心间带宽降至1/8。

这种缺陷造成越接近树根的交换机,端口拥塞越严重,造成的带宽资源浪费就越严重。

可见,STP可以很好地支持传统的小规模范围的二层网络,但在一些规模部署虚拟化应用的数据中心内(或数据中心之间),会出现大范围的二层网络,STP在这样的网络中应用存在严重的不足。

主要表现为以下问题(如图2所示)。

图2 STP的低效路径问题示意图1. 低效路径•流量绕行N-1跳•路由网络只需N/2跳甚至更短2. 带宽利用率低•阻断环路,中断链路•大量带宽闲置•流量容易拥塞3. 可靠性低•秒级故障切换•对设备的消耗较大4. 维护难度大•链路引起拓扑变化复杂•容易引发广播风暴•配置、管理难度随着规模增加剧增由于STP存在以上种种不足,其难以胜任大规模二层网络的管理控制。

2 IRF技术应用分析H3C IRF(Intelligent Resilient Framework)是N:1网络虚拟化技术。

IRF可将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理和使用。

大二层按需构建灵活的精细化的校园网络课件

大二层按需构建灵活的精细化的校园网络课件
根据网络需求,将交换机端口划分为不 同的VLAN,实现网络隔离和安全性。
VS
VLAN管理
通过配置VLAN接口IP地址和管理VLAN 的路由,实现VLAN之间的通讯和管理。
配置静态路由和动态路由协议
静态路由
配置静态路由,实现不同VLAN之间的通讯 ,以及校园网与外部网络的通讯。
OSPF协议
配置OSPF协议,实现动态学习路由信息, 优化网络路由路径,提高网络性能和可靠性 。
ห้องสมุดไป่ตู้
未来发展趋势和研究方向
发展趋势
网络功能虚拟化:随着虚拟化技术的不断发展,未来校园网将逐渐实现 网络功能虚拟化,大二层网络架构将更好地支持虚拟化环境下的网络管
理和优化。
5G融会发展:5G技术的不断普及和应用,将为校园网带来新的发展机遇 和挑战,大二层网络架构将更好地与5G技术融会发展,满足校园网日益 增长的需求。
网络设备的状态监控
实时监控网络设备的状态,包括端口状态、流量情况等, 当出现特殊情况时及时告警并处理,保证网络的稳定运行 。
实施网络安全策略
访问控制策略
通过制定访问控制策略,限制 用户对敏锐资源的访问权限, 防止未经授权的访问和恶意攻
击。
安全审计策略
定期对网络进行安全审计,发现潜 伏的安全隐患和漏洞,及时进行处 理和修复。
实时监控网络流量,分析流量行为和特点,为优化网络性能提供数据支持。通过分析流量 数据,可以发现潜伏的网络瓶颈和优化点,进而调整网络配置和结构。
故障处理与恢复
当出现网络故障时,应快速定位并处理故障。通过实施故障处理机制,可以缩短故障恢复 时间,减少对业务的影响。同时,应制定应急预案,以应对可能出现的严重故障或安全事 件。
实施QoS策略和流量控制

大二层网络实现技术的探讨

大二层网络实现技术的探讨

大二层网络实现技术的探讨作者:雷鸣等来源:《山东工业技术》2015年第09期摘要:大二层网络可以分为虚拟交换机技术和隧道技术。

隧道技术可以使用现有设备,有效节省资金,并且对网络的物理结构改变不大,可以降低网络建设人员的工作量。

关键词:大二层网络;实现技术;单播数据帧随着云计算的兴起,大数据传输等应用得到了快速发展,虚拟服务器等技术也日渐成熟。

但是实现这些应用需要高速、稳定的网络环境来支持。

大二层网络结合了二层网络结构简单和三层网络模块化思想的优点,可以为上述应用提供很好的支持。

1 大二层网络的概念及特点大二层网络是符合扁平化架构、支持大规模虚拟化的二层网络结构。

大二层网络特点:支持扩充数据中心内部网络。

使用二层网络构架和VLan的延伸,完成虚拟机在数据中心的网络内的大范围动态迁移。

它具有以下特点:(1)高效转发;(2)有效避免环路;(3)网络震荡快速收敛;(4)部署方便;(5)支持多租户;(6)平滑迁移。

2 主流大二层网络技术流行的大二层网络技术有虚拟交换机技术和隧道技术。

下面将做分别说明。

2.1 虚拟交换机技术虚拟交换机的构架思路很简单,是包含于工程体系中的。

通过将相互冗余的设备或链路进行合并操作来,使其变成一个单一的设备或者链路,解决由于使用冗余设备和冗余链路来构建网络,二层网络形成的环路的问题[1]。

到目前,交换机技术已经发展到了一个相当成熟的阶段,无论是低端的盒式交换机还是高端的框式交换机的使用都十分广泛,并且技术成熟,设备稳定性好。

所以,现在使用的大二层网络,最常见的就是基于虚拟交换机技术来实现的。

H3C公司研发的IRF技术、Cisco公司研发的VSS技术都是虚拟交换机技术的代表。

按其网络厂商的宣传来说,只需升级交换机软件即可支持虚拟交换机,应用成本低、部署简便[2]。

但是目前这些不同的技术都只遵循各个网络厂商的私有协议,只有同一厂商,并且是同一系列的产品才能实现虚拟化。

实际上,很少有用户能够做到所有网络设备都属于同一厂商、同一系列。

大二层网络演绎介绍

大二层网络演绎介绍

大二层网络演绎(1)数据中心为什么需要大二层网络?在开始之前,首先要明确一点,大二层网络基本上都是针对数据中心场景的,因为它实际上就是为了解决数据中心的服务器虚拟化之后的虚拟机动态迁移这一特定需求而出现的。

对于普通的园区网之类网络而言,大二层网络并没有特殊的价值和意义(除了某些特殊场景,例如WIFI漫游等等)。

所以,我们现在所说的大二层网络,一般都是指数据中心的大二层网络。

1传统数据中心网络架构传统的数据中心网络通常都是二层+三层网络架构,如下图所示。

我们看到,这种网络架构其实和园区网等网络的架构是一样的,这种架构相当于零售行业的“加盟店”形式,而与之相对应的“三层到边缘”架构,以及我们下面要谈到的“大二层”架构,就相当于“直营店”了。

之所以采用这种网络架构,是因为这种架构非常成熟,相关的二三层网络技术(二层VLAN+xSTP、三层路由)都是成熟的技术,可以很容易的进行部署,也符合数据中心分区分模块的业务特点。

但是这种网络架构对于数据中心来说,其实是隐藏着一个弱点的,是什么呢?且容我卖个关子,后面再讲。

2服务器虚拟化趋势由于传统的数据中心服务器利用率太低,平均只有10%~15%,浪费了大量的电力能源和机房资源。

所以出现了服务器虚拟化技术。

服务器虚拟化技术是把一台物理服务器虚拟化成多台逻辑服务器,这种逻辑服务器被称为虚拟机(VM),每个VM都可以独立运行,有自己的OS、APP,当前也有自己独立的MAC地址和IP地址,它们通过服务器内部的虚拟交换机(vSwitch)与外部实体网络连接。

通过服务器虚拟化,可以有效地提高服务器的利用率,降低能源消耗,降低客户的运维成本,所以虚拟化技术目前得到了广泛的应用。

(至于为啥有这些好处,我就懒得去说了,有兴趣的话可以自己问一下度娘,总之服务器虚拟化就是个好东东啦)PS:VMware是服务器虚拟化领域的市场领先产品和创新品牌,提供一整套VM解决方案的软件。

除了VMware之外,业界还有微软Hyper-V和Xen等服务器虚拟化软件。

闲话大二层网络(4)—跨数据中心的大二层网络怎么实现?

闲话大二层网络(4)—跨数据中心的大二层网络怎么实现?

上一篇我们谈了很多大二层网络的技术和流派,但是细心的读者可能已经发现,我们谈这些方案和技术,实际上都是讲的同一个数据中心内的大二层网络技术,未考虑跨数据中心的情况。

跨数据中心情况下,那么如果要实现跨数据中心的VM动态迁移,就要保证不同数据中心的服务器也都在同一个二层域内。

也就是说要构建一个覆盖所有数据中心的大二层网络。

在讨论跨数据中心的大二层网络时,我们可以从数据中心内的情况往跨数据中心的情况进行延伸。

看看对于釜底抽薪派、移花接木派、瞒天过海派的技术来说,一旦要跨数据中心构建大二层网络时,又会遇到什么?该如何解决?1釜底抽薪派的跨数据中心互联方案釜底抽薪派通过网络设备虚拟化来消除二层网络环路,从而实现大二层网络。

比方通过CSS/iStack技术,把接入、汇聚、核心层的交换机都虚拟成单节点设备。

当釜底抽薪派遇到跨数据中心的情况时,有两种方式可以实现跨数据中心的大二层网络:这种方式就是把网络设备虚拟化的范围扩大到所有数据中心,把不同数据中心里的交换机堆叠成单台交换机,这种方式就把所有数据中心都当成一体来处理。

如果不具备跨数据中心堆叠的条件,那么想通过纯二层的方式实现跨数据中心的互联就不太现实了。

而在一般情况下,多数据中心之间是通过三层路由互通的,那么就只能把每个数据中心内的二层网络作为大二层网络的一个局部,再把这些局部网络通过L2 over L3的方式进行互联,进而构建一个全局范围的大二层网络。

所谓L2 over L3,是指借助隧道的方式,将二层数据报文封装在三层报文中,跨越中间的三层网络,实现两地二层数据的互通。

这种隧道如前面所说的,像“光纤”,将多个数据中心的二层网络贯穿在一起。

L2 over L3的技术有很多种,有传统的VPN技术VPLS/VLL以及增强版的VPLS/VLL over GRE。

也有新兴的专门为数据中心二层互联开发的VPN技术,例如华为的EVN〔Ethernet Virtual Network〕技术、CISCO的OTV〔Overlay Transport Virtualization〕等等。

面向DC的城域网大二层技术浅析

面向DC的城域网大二层技术浅析

山东通信技术Shandong Communication Technology第40卷第2期2020年6月Vol.40 No.2Jun. 2020面向DC 的城域网大二层技术浅析张龙江I 梁凌I 陈振铎$王蕾$(1中国联通济南市分公司,济南2500012济南市农业局,济南250001 )摘要:本文从5G 商用和运营商网络架构简化的背景出发,对面向DC 的城域网大二层技术STP 、TRILL 和VXLAN 进行了对比分析,并结合下一代新型城域网vBAS 场景对VXLAN 大二层隧道进行了应用剖析,为宽带网络运维人员学习新型城域网架构演进提供了参考。

关键词:DC STP TRILL VXLAN 智能城域网1引言随着5G 商用步伐的推进,各运营商将通过网络架构简化,力争逐步实现通信云、移动业务、政企客户接入以及固网宽带等业务综合承载的目标,构建以通信云数据中心(DC, Data Center )为核心的下一代 新型智能城域网。

在通信云DC 的新型智能城域网部 署中,借助服务器虚拟化技术,能够发挥DC 优势, 并更好地解决传统数据中心的不足(如硬件资源利用率低、空间挑战、能耗过多、管理成本剧增等),从而支持快速统一部署网络架构,降低运行维护成本。

DC 的核心技术之一是服务器虚拟化,例如 vBAS 、vRouter 、vLB 、vSR 等。

为了更好地实现业务 冗余和负载,DC 面临虚拟机动态灵活迁移的不同场景需求(图1 )。

图1 DC 虚拟机迁移场景为了保障业务不中断,虚拟机迁移前后IP 、MAC 不变是运营商DC 部署的核心原则。

随着网络演进,虚拟机迁移范围也沿着网络设备内部、网络设备之间、跨数据中心的迁移演进路线而不断丰富。

如何 构建覆盖广的大二层网络,特别是在传统三层网络Underlay 架构基础上(如宽带城域网、承载网),采取什么样的大二层技术,则成为运营商需要深入思考的问题。

2面向DC 的城域网大二层网络技术探析2.1传统大二层网络xSTP 技术分析传统的大二层网络主要依赖xSTP 协议来对二层 VLAN 网络进行管理。

云数据中心大二层网络技术研究

云数据中心大二层网络技术研究

随着以虚拟化为主的云数据中心的发展和成熟, 应用数据猛增, 数据中心虚拟服务器的迁移和数据交换产生的流量要求所有的虚拟机在同一个VLAN, 大二层网络应运而生。

文中总结和分析了常见的大二层网络设计和优化方案, 并结合实际, 将优化方案引入到高校数据中心的建设当中。

新一代数据中心内部的网络逻辑结构的特点是“大二层结构”。

所谓“大二层”是指所有VLAN 都可以延展到所有汇聚层、接入层交换机的VLAN 结构,这与传统数据中心VLAN 往往终结在接入层交换机的做法不同。

大二层网络结构的需求是由如下原因决定的:1. 服务器虚拟化的要求:所有主流服务器虚拟化技术都能够实现不同程度的虚机在线迁移,而虚机迁移前后其MAC/IP地址等不变,决定了其迁移的源和目的应在同一个VLAN;2. 网络业务整合的需要:新一代数据中心网络要求比传统网络更高的业务承载能力,各种应用(比如Oracle RAC 等)等都需要纯二层网络来提供其业务所需的低延迟、高吞吐、MAC 层直接交换的网络环境;3. 智能业务整合、集中部署的需求:为面向范围更广的接入层提供智能服务资源池,智能服务被要求集中化部署,这就需要有智能服务要求的VLAN 都能延展到智能服务设施所在的汇聚层。

随着应用的数量迅猛增加,二层网络的扩展造成传统二层技术在链路冗余能力、负载均衡能力、可扩展性和网络稳定性上面的诸多问题,下面以某高校为例讨论如何构造一个可扩展的大二层网络。

大二层网络设计技术跨机箱的端口捆绑(VPC)由于传统二层网络依靠生成树(或生成树的改进协议,如快速生成树、MSTP 等)来实现冗余链路的负载均衡和故障切换,不仅设计复杂、建设维护管理难度大,而且链路负载不均、故障收敛慢且稳定性差。

一种摒弃生成树的设计就是跨机箱实现以太网端口捆绑,如图1 所示:这样设计之后,向任何一对冗余的物理机箱的连接都可看成是连向一个逻辑设备,多条冗余的链路可被捆绑为一条逻辑链路,逻辑链路内各物理链路可负载均衡和高效能故障切换。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1传统STP技术应用分析
STP就是IEEE 802、1D中定义得一个应用于以太网交换机得标准,这个标准为交换机定义了一组规则用于探知链路层拓扑,并对交换机得链路层转发行为进行控制.如果STP发现网络中存在环路,它会在环路上选择一个恰当得位置阻塞链路上得端口-—阻止端口转发或接收以太网帧,通过这种方式消除二层网络中可能产生得广播风暴。

然而在实际部署中,为确保网络得高可用性,无论就是数据中心网络还就是园区网络,通常都会采用具有环路得物理拓扑,并采用STP阻塞部分端口得转发。

对于被阻塞端口,只有在处于转发状态得端口及链路发生故障时,才可能被STP加入到二层数据帧得转发树中。

图1 STP引起得带宽利用率不足得问题
STP得这种机制导致了二层链路利用率不足,尤其就是在网络设备具有全连接拓扑关系时,这种缺陷尤为突出。

如图1所示,当采用全网STP二层设计时,STP将阻塞大多数链路,使接入到汇聚间带宽降至1/4,汇聚至核心间带宽降至1/8。

这种缺陷造成越接近树根得交换机,端口拥塞越严重,造成得带宽资源浪费就越严重。

可见,STP可以很好地支持传统得小规模范围得二层网络,但在一些规模部署虚拟化应用得数据中心内(或数据中心之间),会出现大范围得二层网络,STP在这样得网络中应用存在严重得不足.主要表现为以下问题(如图2所示).
图2 STP得低效路径问题示意图
1、低效路径
•流量绕行N-1跳
•路由网络只需N/2跳甚至更短
2、带宽利用率低
•阻断环路,中断链路
•大量带宽闲置
•流量容易拥塞
3、可靠性低
•秒级故障切换
•对设备得消耗较大
4、维护难度大
•链路引起拓扑变化复杂
•容易引发广播风暴
•配置、管理难度随着规模增加剧增
由于STP存在以上种种不足,其难以胜任大规模二层网络得管理控制.
2IRF技术应用分析
H3C IRF(Intelligent Resilient Framework)就是N:1网络虚拟化技术。

IRF可将多台网络设备(成员设备)虚拟化为一台网络设备(虚拟设备),并将这些设备作为单一设备管理与使用。

IRF虚拟化技术不仅使多台物理设备简化成一台逻辑设备,同时网络各层之间得多条链路连接也将变成两台逻辑设备之间得直连,因此可以将多条物理链路进行跨设备得链路聚合,从而变成了一条逻辑链路,增加带宽得同时也避免了由多条物理链路引起得环路问题。

如图3所示,将接入、汇聚与核心交换机两两虚拟化,层与层之间采用跨设备链路捆绑方式互联,整网物理拓扑没有变化,但逻辑拓
扑上变成了树状结构,以太帧延拓扑树转发,不存在二层环路,且带宽利用率最高.
图3 基于IRF构建二层网络
简单来说,利用IRF构建二层网络得好处包括:
•简化组网拓扑结构,简化管理
•减少了设备数量,减少管理工作量
•多台设备合并后可以有效得提高性能
•多台设备之间可以实现无缝切换,有效提高网络HA性能目前,IRF技术实现框式交换机堆叠得窬量最大为四台,也就就是说使用IRF 构建二层网络时,汇聚交换机最多可达4台.举例来说,汇聚层部署16业务槽得框式交换机(4块上行,12块下行),配置业界最先进得48端口线速万兆单板。

考虑保证上下行1:4得收敛比,汇聚交换机下行得万兆端口数量48*12=576。

接入交换机部署4万兆上行,48千兆下行得盒式交换机.4台IRF后得汇聚交换机可以在二层无阻塞得前提下接入13824台双网卡得千兆服务器,可满足国内绝大部分客户得二层组网需求。

少部分客户期望其服务器资源池可以有效扩充到2万台甚至更大。

这样,就需要其她技术提供更大得网络容量.
3 TRILL技术应用分析
图4 数据中心Trill大二层组网架构示意图采用TRILL技术构建得数据中心大二层网络如图4所示,网络分为核心层(相当于传统数据中心汇聚层)、接入层。

接入层就是TRILL网络与传统以太网得边界;核心层RBridge不提供主机接入,只负责TRILL帧得高速转发。

每个接入层RBridge通过多个高速端口分别接入到多台核心层RBridge上。


确得说,TRILL最大可以支持16台核心层RBridge。

这样也就对接入层交换机提出了更高得要求:支持16端口万兆上行,160千兆下行.目前得主流千兆交换机都就是4万兆上行、48千兆下行.最高密度可以支持到10万兆上行,96千兆下行。

如果与前面IRF组网采用相同得汇聚(TRILL核心)设备与收敛比,TRILL目前最大可以支持10核心组网,其最大能力可以无阻塞得接入27648台双网卡千兆服务器.可以直观得瞧到,随着汇聚交换机数量得增加,二层网络服务器得接入规模直线上升。

这就是目前TRILL相对于IRF最明显得优势。

虽然TRILL成功扩展了虚拟机资源池得规模,但就是目前大规模得二层网络缺乏运维经验,这意味着运维成本会大幅度提升,同时给业务系统带来巨大得风险.同时,TRILL技术目前在芯片实现上存在客观缺陷:核心层不能支持三层终结,也就就是说TRILL得核心层不能做网关设备.必须要在核心层上再增加一层设备来做网关(如图5所示)。

这导致网络结构变得复杂,管理难度增加,网络建设、运维成本都会增加。

图5数据中心Trill组网网关设计架构示意图
4 SPB技术应用分析
SPB得组网方案与TRILL基本相同(图4所示)。

同样最大可以扩展16台汇聚交换机增加二层网络接入规模;同样对接入交换机得接入密度提出更高得要求;同样存在网关与SPB核心必须分离得芯片缺陷(图5所示),导致网络层次增加,管理、运维成本增加。

相对于TRILL,SPB最大得优势在于能够方便得支持VLAN扩展功能,正就是这一点吸引了很多需要支持多租户业务得运营商以及有规模运营需求得企业得关注。

5 EVI技术应用分析
由于大规模得二层网络缺乏成功得运维经验,所以最合理得虚拟化网络应该就是L3+L2网络模型。

如前文所述,由于EVI特性可以通过汇聚层与核心层之间得IP网络实现二层互通,所以通过EVI扩展多个二层域得时候不需要更改布线或就是设备,仅仅需要在汇聚设备上启用EVI特性即可.这样可以平滑得扩展二层网络得规模。

Fabricpath就是由Cisco提出,与TRILL非常相似得一种技术。

Fabricpath与TRILL对比来瞧,主要在于封装更加精简,支持多拓扑能力,在控制管理层面上精耕细作,成熟度要好一些。

就是Juniper提出得技术,将交换机得控制软件拉到外部得服务器上运行,整个网络采用集中控制集中管理得方式.缺点就是:扩展性不好,部署案例少,成熟度待检验.
业界最近出现了一种通过在vSwitch上支持L2oIP得技术,有VXlAN(Virtual eXtensibleLAN)与NVGRE(Network Virtual GRE),前者就是由VMware 与思科提出得标准,使用了L2oUDP得封装方式,支持16M得tenant ID;后者就是由HP 与微软提出得标准,使用了L2oGRE封装方式,也支持16M得tenantID.这两种技术得主要特点就是隧道得起点与终点主要在vswitch上,而不就是物理交换机上。

隧道得封装在服务器内部得vswitch就已经打好,然后将物理网络当作大得IP背板加以穿透,大二层范围可以跨DC.以期达到快速部署,灵活创建虚拟化网络得目得。

相关文档
最新文档