思科广域应用服务(WAAS) V4.0技术概述
思科软件定义广域网路由器产品手册说明书
产品手册思科软件定义广域网路由器产品手册简介思科软件定义广域网路由器为传统路由和软件定义广域网部署提供全面的广域网网关和网络服务功能。
思科软件定义广域网路由器是位于远程办公室、分支机构办公室、园区或数据中心等站点边界的硬件、软件、云或虚拟化解决方案。
它们通过混合任何广域网传输,参与建立安全的虚拟覆盖网络。
软件定义广域网路由器提供基本的路由、转发、安全、加密、服务质量 (QoS)、策略和管理功能。
产品组合软件定义广域网路由器提供以下型号:1. vEdge-100:100 Mbps AES-256 吞吐量,配有 5 个非模块化 10/100/1000 Mbps 端口。
有三种不同的类型:●vEdge 100b:仅以太网●vEdge 100m:以太网和集成式 2G/3G/4G 调制解调器●vEdge 100wm:以太网、集成式 2G/3G/4G 调制解调器和无线局域网2. vEdge-1000:1 Gbps AES-256 吞吐量,配有 8 个非模块化 GE SFP 端口3. vEdge-2000:10 Gbps AES-256 吞吐量,配有 2 个可插拔接口模块4. vEdge-5000:20 Gbps AES-256 吞吐量,配有 4 个网络接口模块5. ISR 和 ASR 系列:通过 IOS XE 软件定义广域网软件映像,可在特定 ISR 1000 系列、ISR 4000 系列和 ASR1000 系列路由器上实现软件定义广域网功能。
有关详细信息,请参阅各自的产品手册。
6. ENCS:通过 IOS XE 软件定义广域网软件映像,可在特定 ENCS 5000 系列平台上实现软件定义广域网功能。
有关详细信息,请参阅各自的产品手册。
vEdge 路由器:vEdge 路由器可提供相同的软件功能。
平台之间的主要区别在于吞吐量、硬件组件冗余和端口密度。
部分 vEdge-100 路由器型号通过以太网供电集成式 GPS 和集成式 WiFi 的形式提供其他功能。
思科智能广域网
概览优势• 经济实惠地扩展您的 MPLS VPN,方法是借助成本较低的互联网、蜂窝网络或其他广域网链路。
• 降低您的每月广域网服务账单,而不影响安全性、性能或可靠性。
• 使用适用于所有广域网控制功能的单个集成平台,简化 IT 运营。
• 开展访客 Wi-Fi、SaaS、视频和其他关键服务,而不降低广域网速度。
• 获得投资回报,只需要几个月。
思科智能广域网发展您的广域网无需花费重资,品质不打折扣思科®智能广域网 (IWAN) 是一套完整的流量控制和安全功能集合,适用于已经集成到思科分支机构路由器的广域网。
IWAN 将为您提供 MPLS VPN 的所有企业级功能(例如服务质量 (QoS)、广域网优化和 VPN 隧道),使用成本较低的连接即可投入使用。
因此,您可以借助互联网、蜂窝网络和其他较低成本的链路发展 MPLS 网络,同时不影响性能、可靠性或安全性。
这样可打造两全其美的解决方案。
带有 IWAN 的思科集成业务路由器 (ISR) 可以动态地路由根据应用、终端和网络条件确定优先级的流量,以提供最优质的体验。
通过 IWAN 节省的费用可以马上用于对网络基础设施进行任何需要的升级。
例如,TeleGeography 估计,根据地理位置的不同,将 100 个分支机构的广域网迁移到互联网可节省 500,000 美元至 135 万美元。
1将互联网用作您的广域网如果您的情况和许多 IT 组织相似,那么您同样面临着分支站点的云服务、移动流量和视频不断增长的带宽需求所带来的压力。
不增加带宽可能造成网络堵塞,导致用户体验较差,并减慢业务响应时间。
若要解决这种情况,同时保持在预算内,那么您可以在分支机构有把握地添加互联网或其他较低成本的链路,并且使 99.999% (“五个九”)的链路仍旧可用。
借助在思科应用策略基础设施控制器企业模块 (APIC EM) 中运行的思科IWAN 应用,您可以实现 IWAN 功能的自动配置。
思科工业4.0大数据解决方案ppt
Professional Commercial Project Plan
封面和内页所有素材均可自由编辑
目录
1 请在此处输入您的文本
2 请在此处输入您的文本
3 请在此处输入您的文本
4 请在此处输入您的文本
学校"的答卷;它既反映本学期我校的学创活动情况,又反映了我校学生的文明风彩。 的办学宗旨是培养合格加特长的人才。"合格"即教会学生做人;"特长"是要培养学生在 学创造,谋发展。我们坚信,经达我们的努力,一代高素质的跨世纪人才将在巴蜀摇篮 良好的氛围中成长工作总结-工作总结 随着科学技术的飞跃发展,社会经济和文化的迅速变革,成长中的儿童面临着日益增长 压力,在学
习生活和社会适应方面遇到种种困难和挫折,许多孩子追求物质上的享乐,对学习提不 高骛远,缺乏毅力,精神寂寞,甚至个别出现逃学吸毒自杀等现象。如何帮助这些孩子 孩子们的这些心理问题是如何产生的呢? 追根溯源,影响儿童心理健康发展的因素包括
社会因素。从社会角度看,改革开放以来,经济迅速发展,各个领域各个方面发生了深 社会的发展与变革,对儿童的发展起了积极作用,也带来了
合伙人是指投资组成合伙企业,参与合伙经营的组织和个人,是合伙企业的 主体,了解合伙企业首先要了解合伙人。合伙人在法学中是一个比较普通的 概念,通常是指以其资产进行合伙投资,参与合伙经营,依协议享受权利, 承担义务,并对企业债务承担无限(或有限)责任的自然人或法人。
合伙人是指投资组成合伙企业,参与合伙经营的组织和个人,是合伙企业的 主体,了解合伙企业首先要了解合伙人。合伙人在法学中是一个比较普通的 概念,通常是指以其资产进行合伙投资,参与合伙经营,依协议享受权利, 承担义务,并对企业债务承担无限(或有限)责任的自然人或法人。
思科开放路由器平台
思科开放路由器平台作者:凡晓芝来源:《计算机世界》2008年第26期分支机构如何获得与总部一样的应用体验,如何增强对业务资源的访问能力?近日,思科宣布推出新的解决方案,进一步优化各类分支机构的运营,使企业能够根据自身独特的业务需求定制分支机构网络。
相关研究数据显示:全球分支机构的数量平均每年增长11%, 62%的企业有增设分支机构的需求;91%的员工将工作在分支机构中。
但是很显然,目前大多数的分支机构都不能得到总部那样统一的使用体验。
通过向客户及第三方应用开发商开放其业界领先的集成多业务路由器(ISR)和广域应用服务(WAAS)平台,思科不仅能帮助客户优化分支机构的基础设施,使得分支机构也获得统一的使用体验,还增强了他们对业务资源的访问能力。
同时,思科还为其渠道合作伙伴带来了新的机会,使他们能够贴近客户需求,提供独特的解决方案和服务。
开放WAAS 平台为了帮助客户提高分支机构的灵活性,思科推出了WAAS WAE-674 广域应用引擎,加速了集中式数据中心的应用和本地应用托管。
WAE-674提供了高性能的广域网优化服务,能够通过嵌入式虚拟软件进行升级,以便针对Microsoft Windows Server 2008和未来的成品应用提供“虚拟刀片”支持。
有了这个新平台后,客户能够选择将哪些IT资产从分支机构集中到数据中心,同时在广域网上实现出色的应用性能,并在分支机构保留一个Microsoft Windows平台,用于提供基本的IT服务。
开放AXP平台思科还在其技术开发项目(TDP)中增加了一个新的AXP(Application eXtension Platform)选项,旨在为客户、独立软件厂商、系统集成商和电信运营商提供所需的技术与营销支持,帮助他们创建、开发并分销基于AXP的解决方案。
Cisco AXP SDK允许开发者为业界垂直企业创建特定的解决方案、基于统一通信的应用、网络与管理效用,并使用ISR提供的基础安全、移动性、广域网优化和统一通信功能。
思科 分支机构路由器系列网络分析模块 说明书
合理调整网络,减少网络支出 确定服务趋势,以预测基础设施改进,更好地满足对于服务的更
高需求。
节约总拥有成本(TCO)
思科NAM解决方案的集成特性节约了运营、维护和技术支持成
本。思科NAM流量分析器免费提供。思科分支机构路由器系列
NAM的维护包括在分支机构路由器维护合同中。
产品规格
表2提供了思科分支机构路由器系列NAM的规格。
改进用户体验应用性能的方式 思科分支机构路由器系列NAM提供了有关分支机构中客户端所体验到的应用性能的重要信息。利用 思科应用响应时间 (ART) MIB扩展,思科NAM能跟踪响应时间,将应用性能问题隔离在网络或应用 服务器中。利用这些反应用户网络性能体验的测量数据,能够快速识别性能下降的根源,并在用户 注意到有问题出现之前就解决问题。 思科NAM收集基于TCP的客户端/服务器请求的响应时间统计数据,报告与任意端口或接口相连的关 键设备的响应时间统计数据。响应时间分析和报告是完全可定制的;用户能定义以多长的时间间隔 来测量应用和服务器,全面控制响应时间报告。此外,也能确定响应时间数据的趋势。由此,能够 将网络和应用使用情况的变化与响应时间的波动相关联,预测用户数或广域网带宽管理的变化会对 应用性能产生什么影响(图6)。
远程机构
易于部署和使用 思科NAM包括一个基于Web的轻量流量分析器GUI (图3) ,能从任意桌面进行访问,无需派遣人员 前往远程地点或通过广域网链路向中央站点发送大量数据。
2
图3. 通过内嵌的思科NAM流量分析器进行基于Web的流量监控
思科NAM流量分析器使用RMON II等MIB和NBAR-PD来分析和存储收集到的数据,提供网络和应用 性能的全面视图,包括有关数据、语音和视频流量,DiffServ配置,主机,通话双方,应用使用和应 用响应时间(ART)的重要信息(图4)。
iFIX4.0 宣传册
GE Fanuc自动化Proficy™ HMI/SCADA – iFIX® 4.0拓展HMI/SCADA的新功能Proficy HMI/SCADA – iFIX 4.0是对HMI/SCADA用户的一次重大改进,不仅提供了强大的新性能,还对现有技术进行了多项改进。
新功能发现和自动配置这一新的工具使用户可以浏览数据源(PLC和/或PLC程序)、识别变量和数据结构,然后为通讯自动配置一个驱动程序。
iFIX过程数据库块无需输入信号条件及报警。
与PLC数据源的连接既简单又无误,所需要的只是点击几下鼠标。
对西门子Step 7程序文件的发现应用已在iFIX 4.0产品光盘上提供。
其它发现应用的选项将作为HMI/SCADA高效包发布在GlobalCare支持网站上。
版本管理和灾难恢复iFIX 4.0现在可以与GE Fanuc Proficy 变更管理解决方案紧密集成。
应用程序文件通过添加到iFIX工作台系统树的附加检出/检入功能快速方便地检入和检出Proficy变更管理服务器。
您还可以使用Proficy 变更管理调度程序自动检查文件更改并自动进行备份,以确保您拥有用于灾难恢复目的的最新应用程序文件集。
至今最安全的环境iFIX 4.0通过增强新功能将SCADA的安全性带到了新的水平。
现在可通过加密通讯方式来处理点对点联网。
这一增强的安全性可以使旧版本节点与现有节点的通讯并存。
另外,授权的连接使开发人员可以准确地指定iFIX客户机服务器环境中允许连接的节点。
利用iFIX电子签名功能的应用程序将受益于与生物测定设备的集成,即,指纹读取器、视网膜扫描仪等。
iFIX 4.0为OEM客户提供了一套生物测定工具,(该工具作为iFIX集成工具包一部分发行),使iFIX 电子签名对话框可以与第三方生物测定基础设备紧密地集成。
SCADA节点上的终端服务终端服务通常要求有一台独立和专门的服务器来支持远程客户机。
4.0版现在为单一远程用户或一台SCADA服务器上的三位远程用户提供了一个终端服务选项。
思科广域应用服务(WAAS)概览
思科广域应用服务(WAAS)概览概览思科®广域应用服务4.0 (WAAS)是一个功能强大的新型应用加速和广域网优化解决方案,适用于分支机构,能够提高在广域网(WAN)环境下运行的所有基于TCP 的应用的性能。
借助思科WAAS,企业能将昂贵的分支机构服务器和存储整合到集中管理的数据中心,同时仍为远程用户提供类似局域网的服务水平。
思科WAAS解决方案大幅降低了总拥有成本(TCO)、提高了应用性能、能够更为高效地使用广域网, 并与网络透明集成,易于部署且提供了安全、集中的管理和控制能力。
为应用和文件服务提供高性能思科WAAS解决方案通过结合以下一系列技术,为广域网上的应用和文件提供了类似局域网的性能:∙应用和文件协议加速—通过高级协议优化,包括提前读取、信息预测和缓存等,减少延迟和所用带宽。
∙吞吐率优化—改进了传输协议行为,使其在广域网环境中更为高效。
∙带宽优化—通过重复数据消除技术(DRE)和压缩技术,最大化地减少数据重复传输。
图1. 广域网上的性能使用一个5MB文件运行,T1链路,80ms延迟思科WAAS为客户带来的优势分支机构基础设施整合∙将分支机构服务器整合到公司数据中心。
∙降低分支机构的运营费用、资金占用和带宽开支。
∙提高数据可用性、可管理性和策略一致性。
∙集中保护数据,简化存储管理。
快速应用访问∙在广域网上为集中应用提供类似局域网的性能。
∙扩展应用覆盖范围,增强员工生产率、共享和协作。
∙可靠地为所有分支机构提供应用内容(Web、文件、视频、ERP、CRM等)。
提高广域网利用率∙在提高最终用户性能的同时降低广域网带宽的成本。
∙与网络架构集成,确保能根据企业要求,为网络流量提供最佳服务水平。
专为企业设计∙属于分支机构的整体架构解决方案的一部分。
∙具备企业级的可扩展性、易部署性和可靠性。
∙与现有IP网络透明集成。
∙拥有全球思科高级服务和支持。
通过思科WAAS获得投资回报通过整合分支机构基础设施—服务器、存储和备份—公司能够节约硬件、软件、IT和存储管理成本,并提高生产率。
思科 IWAN 和 Akamai 智能平台:充分利用您的广域网投资
概述思科系统公司和 Akamai Technologies 计划携手推出全球第一款集成 Akamai Unified Performance 的思科智能广域网解决方案,为所有远程办公室提供公共云和私有云应用的高品质最终用户体验。
此推荐解决方案包括业内领先的路由、安全和广域网优化;无与伦比的加速;缓存;以及基于两家公司技术的互联网流量优化。
此集成解决方案采用了思科®集成多业务路由器 Application Experience 路由器 (Cisco ISR-AX) ,可帮助客户大大减轻其企业广域网和互联网链路的流量,不仅能提供卓越的最终用户体验,还可在降低成本的同时最大限度地提高广域网的投资回报 (ROI)。
思科和 Akamai 携手推出的解决方案可以解决的业务挑战应用的发展形势正在发生巨变。
在大多数组织中,为提升效率,IT 部门逐渐将应用集中到公共云或私有云中,但这一转变所带来的新流量模式也使广域网的负担日趋加重。
此外,这一趋势限制了 IT 部门在确定最关键流量的优先级或进行故障排除时的可视性与可控性。
IT 组织正面临着巨大的压力,他们需要满足来自方方面面不断增加的带宽需求,包括公共云与私有云流量、移动设备和访客 Wi-Fi ,以及高带宽应用(例如员工视频培训、多媒体产品信息、公司 Web 应用、互动终端机甚至第三方网络内容)。
通过扩展专用广域网带宽来满足这些需求的成本过高,因为大多数组织的广域网预算都没有增加,并且企业都在竭力通过较少的投入取得更多成果。
此外,互联网边缘正在逐渐延伸至分支机构,从而支持直接连接软件即服务 (SaaS) 和基于 Web 的服务。
与此同时,IT 部门也在寻求可扩展的分支机构安全解决方案,以期提供直接的互联网接入,从而提高应用传输效率。
这一形势将造成以下不良后果:•广域网带宽拥塞,应用性能降低•无法利用分支机构商机(数字标牌、店内应用、移动或访客 Wi-Fi)•直接互联网连接带来潜在的安全性和合规性风险•用户体验不佳(员工和客户)•对业务需求的响应缓慢•远程办公室管理复杂化最近,随着互联网成为运行业务关键型应用的合适平台,企业正在转向包括多协议标签交换 (MPLS) 和基于互联网的广域网的混合网络架构。
WAAS 广域增强系统
WAAS 广域增强系统时间:2009-04-18 08:21:06 来源:作者:WAAS 是为民用飞行开发的极精确的导航系统。
在WAAS以前,美国的国家飞行系统(NAS)并没有足够的能力为所有区域的所有用户提供水平与垂直导航,有了WAAS后就有了给所有用户提供导航的能力。
WAAS为各种类型的飞行器各飞行阶段提供服务,确保飞行过程、升空、着陆时的安全WAAS 不像传统的地面导航辅助系统,它包含了所有的国家飞行系统(NAS),WAAS 给GPS接收机提供增强信息,提高接收机的定位精度。
WAAS 系统主要由四部分组成:地面广域参考基站,WAAS主控站,WAAS上传站和地球同步卫星等,其工作可以分为四个过程:一、基站接收GPS信号在美国境内,广泛地分布着广域参考基站(Wide Area Reference Station(WRS)),每个基站都已知其准确的地理位置,通过接收GPS信号,探测出GPS信号中的误差。
二、基站向主控站传输GPS误差数据广域参考基站(WRS)收集的GPS信息,通过地面的通讯网络传输到WAAS主控站(WMS),主控站生成WAAS 增强信息,这些信息包含了GPS接收机中消除GPS信号误差的信息,使GPS接收机大大改善了定位精度和可靠性。
三、WAAS增强信息上传增强信息由WASS主控站(WMS)传输到WAAS上传站,上传站调制成导航数据,并上传到地球同步通讯卫星。
四、增强信息的传播地球同步通讯卫星以GPS信号频率向地面广播有增强信息的导航数据,地面接收机接收WASS增强信号,得到GPS误差数据补偿定位,得到更加精确的定位。
WAAS也能给GPS接收机提供GPS系统误差或其他不良影响的信息,其也有严格的安全标准,当存在危险的误导信息时,WAAS能在六秒内发布给用户。
cisco广域网方案
Cisco广域网方案引言广域网(WAN)是一种连接不同地理位置的计算机网络,用于在远距离范围内传输数据和信息。
Cisco(思科)是一家全球领先的网络解决方案供应商,提供了一系列的广域网方案,以帮助企业建立高效可靠的远程网络连接。
本文将介绍Cisco广域网方案的特点、优势以及一些常用的解决方案。
Cisco广域网方案的特点Cisco广域网方案具有以下特点:1.高可靠性:Cisco广域网方案采用了多样化的可靠性技术,如故障转移、冗余路径等,确保网络连接的稳定性和可用性。
2.安全性:Cisco广域网方案提供了一系列的安全功能,包括数据加密、防火墙、入侵检测等,以保护企业的数据和信息安全。
3.灵活性:Cisco广域网方案支持多种网络连接类型,包括传统的专线连接、虚拟专用网络(VPN)和云接入等,可以根据企业的需求进行灵活配置。
4.管理简便性:Cisco广域网方案提供了一套完整的网络管理工具,可以实现对网络设备的集中管理和监控,方便管理员对网络进行配置和故障排除。
Cisco广域网方案的优势Cisco广域网方案相比其他厂商的解决方案具有以下优势:1.丰富的产品线:Cisco提供了广泛的路由器、交换机和安全设备,可以按照不同的需求和规模选择合适的产品。
2.先进的技术:Cisco广域网方案采用了最新的网络技术和协议,包括IPSec VPN、MPLS、DMVPN等,可以实现高速、安全的数据传输。
3.可扩展性:Cisco广域网方案可以根据企业的需求进行扩展和升级,支持大规模网络的部署,保证网络的可扩展性和性能。
4.全球技术支持:作为全球领先的网络解决方案供应商,Cisco提供了全球范围的技术支持和培训服务,确保企业在使用Cisco广域网方案过程中获得及时的帮助和支持。
常用的Cisco广域网解决方案1. Cisco SD-WAN(软件定义广域网)Cisco SD-WAN是一种基于软件定义网络(SDN)的广域网解决方案,可以实现对广域网的灵活、集中管理。
针对集中电子邮件服务的思科广域应用服务优化
思科®广域应用服务(WAAS)使IT机构能够通过整合来简化电子邮件服务基础设施,并更好地提供进行了集中的电子邮件服务。
思科WAAS提供的优化功能极大地提高了远程机构用户的吞吐率,它们一般利用MAPI、SMTP、POP3、IMAP、RPC和其他基于TCP的协议访问集中的电子邮件服务器。
本文介绍了思科系统公司? 通过思科WAAS 提供的优化功能,以及思科WAAS 实现电子邮件服务整合和加速的机制。
挑战为了保持策略和法规符合性,改进数据保护,并在不影响远程机构用户生产率和体验的前提下控制成本,企业IT部门面临着集中分布式服务器基础设施所带来的挑战。
在广域网链路上,对电子邮件等内容丰富的应用的访问延迟高、有分组丢失现象和带宽限制,这给终端用户带来了性能压力,使现有广域网基础设施很快呈现超负荷。
为解决这些问题,许多IT机构已迫切需要为中小型远程机构部署、管理和保护本地基础设施,如图1所示。
图 1. 典型的分布式企业基础设施部署借助思科WAAS和思科广域应用引擎(WAE)系列硬件设备和路由器集成网络模块,企业IT机构目前能够安全地将分布式文件、电子邮件和应用基础设施集中到数据中心中,而不会降低远程机构用户的性能,如图2所示。
图 2. 利用思科WAAS集中和整合的基础设施针对集中电子邮件应用的思科WAAS优化思科WAAS是一个多层应用加速和广域网优化解决方案,能够提高广域网应用性能,加速集中的实施。
电子邮件应用和相关协议的加速是通过下列思科WAAS优化特性实现的:∙思科WAAS传输流优化(TFO)—TFO为基于TCP的应用提供了基于标准、经过现场验证的更高吞吐率,保持了分组网络友好的特点,能与利用标准TCP实施通信的其他网络节点安全共存。
通过在本地透明地端接TCP 连接,TFO优化了穿越广域网的数据流,为通信节点提供了广域网故障屏蔽。
TFO包括的组件如下,它们均为电子邮件服务提供了独特的加速功能:∙大型初始化窗口——客户端电子邮件连接能够更快速地退出TCP慢启动阶段,进入拥塞避免阶段,使电子邮件吞吐率得以迅速提高。
思科 4000 系列集成多业务路由器 (ISR) 产品手册说明书
产品手册思科 4000 系列集成多业务路由器思科® 4000 系列集成多业务路由器 (ISR) 可构成一个智能 WAN 平台,为当今分支机构提供所需的性能、安全性和融合功能。
产品概述思科 4000 系列集成多业务路由器 (ISR) 可改变企业分支机构的 WAN 通信方式。
它的内置智能网络功能和融合能力达到了新的水平,专用于满足分布式企业站点对应用感知型网络不断增长的需求。
这些位置往往有精益 IT 资源。
但是,他们也越来越多地需要通过私有数据中心和公共云在不同的链路(包括多协议标签交换 [MPLS] VPN 和互联网)上直接通信。
思科 4000 系列包含五个平台:4451-X、4431、4351、4331 和 4321 ISR。
图 1. 思科 4000 系列集成多业务路由器功能和优势思科 4000 系列 ISR 提供思科®智能广域网 (IWAN) 软件功能及融合分支机构基础设施。
除具有出色的吞吐量之外,这些功能还构成下一代分支机构 WAN 解决方案的构建块。
思科智能广域网 (IWAN)思科 IWAN 是一组智能软件服务,使用这组智能软件服务可以在各种 WAN 传输链路中安全可靠地连接用户、设备和分支机构位置。
ISR 4000 等支持 IWAN 的路由器基于最新应用和网络条件在“最佳”链路中动态地路由流量,从而提供更出色的应用体验。
您可以密切控制应用性能、带宽使用量、数据隐私和 WAN 链路的可用性 - 这种控制能力正是您的分支机构开展更大量的任务关键型业务所需要的。
思科融合分支机构基础设施思科 4000 系列 ISR 将多个必需的 IT 功能(包括网络、计算和存储资源)融为一体。
高性能的集成路由器可运行多个并行 IWAN 服务,包括加密、流量管理和 WAN 优化,而不会降低您的数据吞吐量。
您可以通过简单的许可变更按需激活新服务。
表 1 列出了可用于创建智能 WAN 和融合分支机构基础设施的思科 4000 系列的多种功能和优势。
Cisco Secure Access Control Server 4.0 for Windows 概述
产品简介思科® 安全访问控制服务器为思科智能信息网络提供基于身份的全面的访问控制解决方案。
它是用于管理企业网络用户、管理员和网络基础设施资源的集成和控制层。
思科® 安全访问控制服务器为思科智能信息网络提供基于身份的全面的访问控制解决方案。
它是用于管理企业网络用户、管理员和网络基础设施资源的集成和控制层。
产品概述现在,网络访问方法越来越多,使遵守安全制度和不可控的网络访问成为企业担心的主要问题。
随着IEEE 802.11无线局域网和普遍宽带互联网连接的广泛部署,安全问题不仅存在于网络外围,还存在于网络内部。
能够防御这些安全漏洞的身份识别网络技术现已成为吸引全球客户关注的主要技术。
企业越来越多地使用公共密钥基础设施(PKI)和一次性密码(OTP)等更严格的验证方式来控制用户从公共网络访问企业资源。
网络管理员希望解决方案能够结合用户身份、网络访问类型和网络访问设备的安全性来提供灵活的授权策略。
最后,集中跟踪并监控网络用户连接的能力对于杜绝不适当地或过度地使用宝贵的网络资源至关重要。
Cisco® Secure ACS (ACS)是具高可扩展性的高性能访问控制服务器,可作为集中的RADIUS 和TACACS+ 服务器运行。
Cisco Secure ACS将验证、用户访问和管理员访问与策略控制结合在一个集中的身份识别网络解决方案中,因此提高了灵活性、移动性、安全性和用户生产率,从而进一步增强了访问安全性。
它针对所有用户执行统一安全策略,不受用户网络访问方式的影响。
它减轻了与扩展用户和网络管理员访问权限相关的管理负担。
通过对所有用户帐户使用一个集中数据库,Cisco Secure ACS可集中控制所有的用户权限并将他们分配到网络中的几百甚至几千个接入点。
对于记帐服务,Cisco Secure ACS针对网络用户的行为提供具体的报告和监控功能,并记录整个网络上每次的访问连接和设备配置变化。
Cisco服务介绍简介
site 现场快速维护效力是针对用户所设计的制 胜工具。它可以延伸思科网络设备和IOS软件 的运用寿命。这套全方位的技术支持效力协助 在网络基础树立(shùlì)中大批投资的用户取得 商业成功。
第三页,共35页。
SB100 800 800BB 800TRAD
1600 PIX-501 (EOL)PIX-506 1700 PIX-515 1800
2600
2800
AIRBR AIRAP AIRCA AIROLD AIR340 AIR350 AIR1100 AIR1200 AIR1300 AIR1400
Cisco Call
第二十六页,共35页。
2.支持(zhīchí)流程
2.1我怎样经过思科SMB TAC处置一个效果? 思科SMB Support Assistant 客户可以经过 联络思科的SMB TAC。
SMB TAC 在中国地域的联络电8008108886; 密码1819。 在您联络思科SMB TAC 时,您将需求提供以下信息: ● CCO 账号 ● 合同编号 ● 主机箱和任何串接组件的序列号 ● 产品的型号和硬件配置 ● 缺陷现象 ● 产品的物理位置 ● 发送效力确认的地址 ● 让SMB TAC 工程师可以在案例开启(kāiqǐ)之后的一个义务日之内
支持流程
定价
概略垂询
第十八页,共35页。
效力(xiào lì)内容
1.1 什么是CISCO SMB SUPPORT ASSISTANT 〔一下简称〝SMB SA〞〕?
CISCO SMB SA 是思科技术支持效力系列中 的最新成员,也是为中小企业(qǐyè),主要
MASS4.0系统产品介绍
MASS4.0系统开发背景
基于存储系统本身需求的设计理念以及大型运营业务 拓展的进一步要求,我们需要设计一种适合自身VOD系统 的存储系统,不仅使存储系统性能能够大幅度的提高,也 能保证存储系统的安全性、可靠性,同时通过支持分布式 存储来节省运营商的成本,另外能够满足大规模并发用户 同时在线、提供用户实时性业务请求,并能满足运营商期 望通过低成本实现系统部署、业务运营和扩展的要求。东 方广视专门提出了适合公司产品自身特点的高性能高可靠 性媒体区域存储系统(MASS)4.0的设计方案。该系统在每 一个存储节点上实现分布式存储、动态raid管理、自动本 地数据调度、数据在线恢复、在整个网络节点上实现向中 央存储服务器的数据调度、系统对动态扩容提供支持。
第三部分 东方广视MASS4.0系统产品简介
MASS4.0系统产品简介
高性能高可靠性媒体区域存储系统4.0(简称为MASS4.0系统)是在 现有Fan3架构基础上进行机制上的修改使网络文件系统更具有高效性 和高可靠性,主要变动为文件存储在各个存储磁盘上,保证文件系统 信息更加安全可靠;另外通过读写分离机制将故障影响系数降到最低 ,一旦写故障,视频服务器读取操作不会受到任何的影响;将所有 MAN(MediaAccessNode)构建一个高速内容交换网络,当任何一个 MAN上磁盘故障或内容丢失,均可通过这个网络进行内容调度,提高 了故障的平滑处理。
MASS4.0系统产品简介
媒体区域存储系统主要由三部分组成,首先是由libman提供的媒 体区域存储系统内容访问的接口层;再者就是由MAN组成的集群构架 了媒体区域存储系统的内容存储调度层;最后就是由MMN提供的媒体 区域存储系统的设备、内容等的管理层。
MASS系统设计架构示意图
应用服务 CDN TRS MASS存储调度层 DBS MASS用户管理层
企业广域网应用加速系统
1. 系统功能简介
今天,由于业务拓展、员工本地化、合并与收购、降低成本以及竞争环境的变 化等因素,促使企业的分支机构或办事处不断增加,伴随着数据中心整合的趋 势,意味着有越来越多的远程员工每天需要通过低带宽、高延迟的广域网访问 企业总部的业务数据。因此,实现广域网加速和应用优化成为众多企业网络建 设的重点。 思科将广域网优化的功能集成到集成多业务路由器中,既满足了远程分支机构 提升广域网性能的要求,同时有效地节约了成本,简化了配置、部署和维护工 作。 思科广域应用服务(WAAS)提供了丰富的广域网优化功能,如高级重复数据消除 (DRE)、缓存、应用协议加速和 TCP 流优化(TFO)等,这些特性减轻了广域网上 的流量负载和拥塞,加快了应用的响应速度。 假定总部和 2 个分支机构间通过广域网 E1 专线连接,总部部署思科 ISR3825 路由器,各分支机构部署思科 ISR2811 路由器。总部路由器配置 NME-WAE-522 模块,各分支机构路由器配置 NME-WAE-302 模块。此外,总部配置一台 WAVE274 设备,作为集中管理服务器(Central Manager) ,实现对 WAAS 设备的集中 配置和管理。 思科 WAAS 的部署示意图如下:
企业广域网应用加速系统
2
系统配置说明: 路由器和广域网接口卡根据实际情况变化。 WAVE-274 配置成集中管理服务器(Central Manager) 。
4. 系统应用领域
Cisco WAAS 应用加速: 分支机构与总部之间通过广域网传输数据,导致应用性能低下。 需要实现数据集中或数据中心整合的单位。 广域网数据传输量较大,线路带宽紧张,无法有效保证主要应用。 企业分支机构访问总部应用的响应速度低下。 远程分支机构和数据中心之间需要提高数据保护、备份和复制等的效果。
Cisco AWS Outposts数据中心网络解决方案简介说明书
Cisco Extends Enterprise-grade Data CenterNetworking to AWS OutpostsSolution BriefCisco publicContentsOverview 3 Customer requirements 3 Solution 3 AWS Outposts overview 4 AWS Outposts in data centers with Cisco Nexus 9000 NX-OS mode 4 AWS Outposts in data centers with Cisco Nexus 9000 ACI mode 11 AWS Outposts in data centers with Cisco ACI and Cloud ACI in AWS 16OverviewCisco provides scalable data center network solutions for customers today to automate their hybrid-cloud interconnects and extend multitenancy and network segmentation designs between multiple on-premises data centers and AWS regions. With the addition of AWS Outposts to the AWS product offering, Cisco customers now can use Cisco’s hybrid-cloud solution to easily connect AWS Outposts instances to their existing fabrics and leverage consistent policy-driven automation to connect workloads residing on premises and/or in the AWS cloud.Customer requirementsCisco customers have deployed Cisco Nexus® 9000–based data-center fabrics widely over the last five years, taking advantage of Cisco innovations in network automation, security, and assurance. As their adoption of hybrid-cloud strategy accelerates, customers demand more flexibility to deploy application workloads on premises or in the AWS cloud while being able to access IT resources on either side. Three key requirements need to be addressed:1)Deliver a seamless hybrid-cloud experience by extending enterprise-grade intersite networkconnectivity, workload segmentation, and workload mobility designs2)Leverage consistent policy model and governance across on-premises data-centers and AWSinstances3)Provide cloud experience on premises through AWS Outposts for application workloads thatdemand low latency, storage-intensive local I/O, and data locality to meet regulatory requirementsSolutionWith the advent of AWS Outpost, customers now have the flexibility to extend Cisco data-center networking solutions to AWS Outposts in two modes:1)Connect AWS Outposts instances to Cisco Nexus–9000 based fabrics – basic connectivitya. Cisco Nexus 9000–based fabric – Cisco NX-OS modeb. Cisco Nexus 9000–based fabric – Cisco ACI™ mode2)Consistent policy-based network extension and segmentation between workloads on premises andin AWS cloud – ACI mode and Cloud ACI extension to AWSAWS Outposts overviewAWS Outposts is a fully managed service that extends AWS infrastructure, AWS services, APIs, and tools to virtually any data center, colocation space, or on-premises facility for a truly consistent hybrid experience. AWS Outposts is ideal for workloads that require low-latency access to on-premises systems, local data processing, or local data storage. AWS customers can use AWS Outposts to launch Amazon Elastic Compute Cloud (EC2) instances and Amazon Elastic Block Store (EBS) volumes locally and run a range of AWS services locally on Outposts or connect to a broad range of services available in the local AWS region.AWS Outposts will be connected to the customer’s data-center network. While Outposts itself are fully managed by AWS, easy connectivity and integration with the on-premises network is the key for successful deployment and operation of AWS Outposts. Cisco provides our customers such an easy solution to connect AWS Outposts to their on-premises Cisco Nexus networks in either NX-OS or ACI mode. If ACI is the operational model of choice, our customers will also be able to extend the benefits of the Cloud ACI solution to AWS Outposts so that they can use a consistent policy model to manage the network connectivity to the AWS cloud, to AWS Outposts, and across their data centers.Each AWS Outpost has two Top-of-Rack (ToR) switches called Outposts Network Devices (ONDs). The two Outpost Network Devices, Outpost Network Device 1 and Outpost Network Device 2, are connected to two access switches in the customer data-center network with a Link Aggregation Control Protocol (LACP) port channel of multiple member links. Layer-3 connectivity is established over VLAN SVI interfaces or Layer-3 subinterfaces with 802.01q encapsulation over the port channel. Border Gateway Protocol (BGP) routing runs over the Layer-3 links between AWS Outposts and the customers data-center network. Each Outpost Network Device establishes two BGP sessions with the customer data-center network, one for the service link datapath and the other for the local datapath. The service link datapath is to provide the connectivity between the Outpost and its parent AWS region. Therefore, it needs to be part of the Layer-3 routing space that is eventually connected to the external routing domain to reach the AWS region. The local datapath is to provide the internal connectivity between the AWS Outpost and the customer data center. It is recommended to keep these two datapaths in two separate VRFs for better route segmentation and control between the external and internal routing spaces.AWS Outposts in data centers with Cisco Nexus 9000 NX-OS modeWhen customers choose to deploy and operate their data-center networks with Cisco Nexus 9000 Series Switches in NX-OS mode, they can build a traditional two or three-tier network using the technologies like Spanning Tree Protocol (STP) and Virtual Port Channel (vPC), but a more modern network design is to leverage BGP EVPN to build an IP-based VXLAN overlay data-center fabric. VXLAN EVPN fabrics provide enterprise grade scale, multitenancy, and workload mobility. The remainder of this section discusses the required configurations to deploy AWS Outposts to an on-premises data center in both scenarios.A traditional three-tier data-center network consists of access, aggregation, and core tiers. The switches on the access tier normally are deployed in vPC pairs to provide redundant connectivity for endhosts and network devices that are connected to the network. The network between the access tier and the aggregation tier can be Layer 2 running STP and vPC, or Layer 3. The network between the aggregation tier and the core tier is normally Layer 3.Figure 1 shows a three-tier network with the demarcation of Layer 2 and Layer 3 on the access tier. The switches on the access tier are in vPC pairs. It shows two typical connectivity topologies for connecting AWS Outposts to an vPC pair of access switches. In example (a), each AWS Outpost Network Device is connected to both access switches via a vPC port channel. In example (b), each AWS Outpost Network Device is connected to one access switch via a non-vPC port channel. In either example, each AWS Outpost Network Device only runs BGP routing with one access switch in a vPC pair. Although it is recommended to keep the service link datapath and the local datapath in two separate VRFs for better route segmentation and control, multi-VRF routing in a traditional two or three-tier data-center network requires a hop-by-hop VRF-lite routing configuration, which is not a common practice due to its operational complexity. Both examples have the two datapaths in the default VRF.Figure 1.AWS Outposts on a Cisco Nexus 9000 NX-OS three-tier data-center networkIn the examples shown in Figure 1, the following designs are used:●In example (a), AWS Outpost Network Device 1 is connected to both Access-A and Access-Bswitches via a vPC port channel (PO11). Outpost Network Device 2 is connected to both Access-A and Access-B switches via a vPC port channel (PO12).●In example (b), AWS Outpost Network Device 1 is connected to Access-A via a port channel (PO10on Access-A). Outpost Network Device 2 is connected to Access-B via a port channel (PO10 on Access-B). Note: This option relies on Outposts’ internal high-availability mechanisms to deliverresilient network connectivity.●In both examples, the on-premises network is in BGP ASN 100. The AWS Outposts is in BGP ASN65501.●In both examples, AWS Outpost Network Device 1 has two BGP peerings with Access-A, one inVLAN 400 for service-link connectivity and the other in VLAN 200 for local connectivity. AWSOutpost Network Device 2 has two BGP peerings with Access-B, one in VLAN 401 for service link connectivity and the other in VLAN 201 for local connectivity.Tables 1 and 2, below, show the relevant configurations for the AWS Outposts deployment on both Access-A and Access-B in example (a) and (b), respectively. It assumes that the vPC configuration between the two switches has been implemented. For a reference on basic vPC configuration, use the following configuration guide:https:///c/en/us/td/docs/switches/datacenter/nexus9000/sw/6-x/interfaces/configuration/guide/b_Cisco_Nexus_9000_Series_NX-OS_Interfaces_Configuration_Guide/configuring_vpcs.pdfTable 1.Required access-switch configurations in example (a) for AWS Outposts deploymentinterface port-channel11switchportswitchport mode trunkswitchport trunk allowed vlan 200,400 vpc 11interface port-channel12switchportswitchport mode trunkswitchport trunk allowed vlan 201,401 vpc 12interface Ethernet1/1-2switchportswitchport mode trunkswitchport trunk allowed vlan 200,400 channel-group 11no shutdowninterface Ethernet1/3-4switchportswitchport mode trunkswitchport trunk allowed vlan 201,401 channel-group 12no shutdown interface port-channel11switchportswitchport mode trunkswitchport trunk allowed vlan 200,400 vpc 11interface port-channel12switchportswitchport mode trunkswitchport trunk allowed vlan 201,401 vpc 12interface Ethernet1/1-2switchportswitchport mode trunkswitchport trunk allowed vlan 200,400 channel-group 11no shutdowninterface Ethernet1/3-4switchportswitchport mode trunkswitchport trunk allowed vlan 201,401 channel-group 12no shutdowninterface Vlan200 no shutdownip address 192.168.2.1/29interface Vlan201 no shutdownip address 192.168.2.11/29interface Vlan400 no shutdownip address 192.168.1.1/29interface Vlan401 no shutdownip address 192.168.1.11/29router bgp 100 router-id 1.1.1.1neighbor 192.168.1.2 ←AWS Outpost Network Device 1 service link datapath remote-as 65501address-family ipv4 unicast neighbor 192.168.2.2 ← AWS Outpost Network Device 1 local datapath remote-as 65501address-family ipv4 unicast interface Vlan200 no shutdownip address 192.168.2.3/29interface Vlan201 no shutdownip address 192.168.2.9/29interface Vlan400 no shutdownip address 192.168.1.3/29interface Vlan401 no shutdownip address 192.168.1.9/29router bgp 100 router-id 2.2.2.2neighbor 192.168.1.10 ←AWS Outpost Network Device 2 service link datapath remote-as 65501address-family ipv4 unicastneighbor 192.168.2.10 ←AWS Outpost Network Device 2 service local datapath remote-as 65501address-family ipv4 unicastTable 2. Required access-switch configurations in example (b) for AWS Outposts deploymentFigure 2 illustrates a typical topology and design to connect AWS Outposts to an NX-OS VXLAN fabric. The two Outpost Network Devices of an AWS Outpost are connected to two different leaf switches of the on-premises data-center network via LACP port channels. Two Layer-3 subinterfaces are configured, one for the internal local datapath and the other for the service link datapath to the AWS region. They are in two different VRFs. BGP is running between each of the subinterfaces and AWS Outposts. The service link connectivity to the AWS region goes through the existing border-leaf switch that runs dynamic routing with the customer organization network outside of the data-center network to provide external connectivity to WAN or the Internet.Figure 2.AWS Outposts on Cisco Nexus 9000 NX-OS VXLAN fabricIn the example shown in Figure 2, the following design is used:●Two VRFs, vrf-local and vrf-servicelink, are created for the local routing and for Outpost service linkconnectivity to the AWS region, respectively.●The port channel 10 is configured on each leaf switch.●Subinterface Po10.400 is configured for Layer-3 connectivity with AWS Outpost Network DeviceVIF1 (IP addresses are indicated in Figure 1) for the service link. It is in vrf-servicelink.●Subinterface Po10.200 is configured for Layer-3 connectivity with AWS Outpost Network DeviceVIF2 (IP addresses are indicated in Figure 2) for local connectivity. It is in vrf-local.●The on-premises network is in BGP ASN 100.●The AWS Outpost is in BGP ASN 65501.●The leaf switches are running BGP EVPN as a control protocol.●BGP routing between the leaf switches and the AWS Outpost Network Devices runs in the IPv4unicast address-family in vrf-servicelink and vrf-local, respectively. The BGP-learned VRF routes are advertised into the L2VPN EVN address-family for further propagation to the rest of the network in the corresponding VRF.The table below shows the required Cisco Nexus 9000 leaf switch configuration for the above design, including the two VRFs, port-channel interface and subinterfaces, and BGP routing with the AWS Outpost Network Devices.Note: A detailed explanation of the switch configuration is not in the scope of this document. Refer to the following configuration guide for Cisco Nexus 9000 Series Switch BGP EVPN configuration:https:///c/en/us/td/docs/switches/datacenter/nexus9000/sw/93x/vxlan/configuration/guid e/b-cisco-nexus-9000-series-nx-os-vxlan-configuration-guide-93x.html.Table 3.Required leaf-switch configuration for AWS Outposts deployment in Cisco Nexus 9000 VXLAN EVPN fabricvrf context vrf-local <- VRF for AWS Outposts local datapathvni 60200rd autoaddress-family ipv4 unicastroute-target import 100:60200route-target export 100:60200route-target both auto evpnvrf context vrf-servicelink <- VRF for AWS Outposts service link datapathvni 60400rd autoaddress-family ipv4 unicastroute-target import 100:60400route-target export 100:60400route-target both auto evpninterface Ethernet1/1-4channel-group 10no shutdowninterface port-channel10interface port-channel10.200description outpost local connectivityencapsulation dot1q 200vrf member vrf-localip address 192.168.2.1/30no shutdowninterface port-channel10.400description outpost service-linkencapsulation dot1q 400vrf member vrf-servicelinkip address 192.168.1.1/30 vrf context vrf-local <- VRF for AWS Outposts local datapathvni 60200rd autoaddress-family ipv4 unicastroute-target import 100:60200route-target export 100:60200route-target both auto evpnvrf context vrf-servicelink <- VRF for AWS Outposts service link datapathvni 60400rd autoaddress-family ipv4 unicastroute-target import 100:60400route-target export 100:60400route-target both auto evpninterface Ethernet1/1-4channel-group 10no shutdowninterface port-channel10interface port-channel10.200description outpost local connectivityencapsulation dot1q 200vrf member vrf-localip address 192.168.2.5/30no shutdowninterface port-channel10.400description outpost service-linkencapsulation dot1q 400vrf member vrf-servicelinkip address 192.168.1.5/30no shutdownrouter bgp 100log-neighbor-changesaddress-family ipv4 unicastaddress-family l2vpn evpnvrf vrf-servicelinkaddress-family ipv4 unicastadvertise l2vpn evpnneighbor 192.168.1.2 <- Outpost Network Device 1 VIF1remote-as 65501address-family ipv4 unicastdefault-originate <-Optionalvrf vrf-localaddress-family ipv4 unicastadvertise l2vpn evpnneighbor 192.168.2.2 <- Outpost Network Device 1 VIF2remote-as 65501address-family ipv4 unicast no shutdownrouter bgp 100log-neighbor-changesaddress-family ipv4 unicastaddress-family l2vpn evpnvrf vrf-servicelinkaddress-family ipv4 unicastadvertise l2vpn evpnneighbor 192.168.1.2 <- Outpost Network Device 2 VIF1remote-as 65501address-family ipv4 unicastdefault-originate <- Optionalvrf vrf-localaddress-family ipv4 unicastadvertise l2vpn evpnneighbor 192.168.2.6 <- Outpost Network Device 2 VIF2remote-as 65501address-family ipv4 unicastAWS Outposts in data centers with Cisco Nexus 9000 ACI modeWith Cisco ACI, customers can enable workload mobility, automate service chaining functions, and enforce their security posture in a consistent manner across on-premises ACI fabrics.Figure 3 shows the typical topology and design for connecting AWS Outposts to a Cisco ACI fabric network. The physical topology is similar to that of NX-OS VXLAN EVPN fabric, but the Layer-3 subinterfaces and BGP routing are provisioned as part of an L3Out on the ACI fabric.Figure 3.AWS Outposts on Cisco ACI fabric networkIn the example shown in Figure 3, the following two L3Out objects are defined, one for the AWS Outposts local datapath, and the other for the AWS Outposts service link datapath. They are in VRF op-local and VRF op-servicelink, respectively. The configuration is centrally defined on the Application Policy Infrastructure Controller (APIC).Figure 4 shows the steps to configure the L3Out op-bgp-servicelink on APIC GUI.Figure 4.Configuring the L3Out op-bgp-servicelinkFigure 5 shows the steps to configure the L3Out op-bgp-local on APIC GUI.Figure 5.Configuring L3out op-bgp-localNote: The above shows the configuration using the APIC GUI interface. Customers can also use the APIC API to program the fabric.AWS Outposts in data centers with Cisco ACI and Cloud ACI in AWSCisco Cloud ACI for AWS extends the ACI policy and operational model to workloads deployed in the AWS cloud. It is architecturally built on top of AWS cloud-native APIs and services so customers can leverage the native network constructs and services provided by AWS without going through extra gateways or hops. Key customer benefits of Cisco Cloud ACI are the following:● A single pane of glass for their day-to-day operational needs of visibility, monitoring, andtroubleshooting across their complex hybrid cloud deployments●Automated stitching of L4-L7 network services across their ACI on-premises fabrics and AWSinstances●Leverage AWS cloud-native APIs and services so customers can leverage services provided byAWS without going through extra gateways or hopsFor more information on Cloud ACI for AWS, refer to the Cisco and AWS jointly authored white paper: https:///c/en/us/solutions/collateral/data-center-virtualization/application-centric-infrastructure/white-paper-c11-741998.html.With AWS Outposts being an extension of AWS cloud-native services to on-premises data centers, the current Cisco Cloud ACI solution automatically will support AWS Outposts instances with the full benefits listed above. After connecting AWS Outposts to a Cisco Nexus fabric as described above (in either ACI or NX-OS mode), Cisco Multi-Site Orchestrator (MSO) and Cisco Cloud ACI (as shown in Figure 6) will be used to normalize network policies for applications across on-premises ACI fabrics, AWS regions, and AWS Outposts instances in multiple regions. With Cloud ACI, the benefits of automated intersite connectivity can also be extended to AWS Outposts for easy connectivity and optimal intersite forwarding paths.Figure 6.ACI extensions to hybrid cloud and AWS OutpostsWith Cisco Cloud ACI, the application network profiles are centrally defined on Cisco ACI Multi-site Orchestrator (MSO), which deploys them to the desired site, including ACI fabrics, AWS regions, and AWS Outposts. Since AWS Outposts is logically an extended part of an AWS region, AWS Outposts–related configurations (such as VPCs, subnets and EP selectors, etc.) are defined under AWS cloud site-local properties in the same way as the normal AWS cloud site. Figures 7 and 8 show an example of an MSO template for an AWS cloud site with Outposts, and the AWS Outposts site-local configuration.Figure 7.Example of MSO template for a site with an AWS OutpostFigure 8.Example of an Outpost site-local configurationNote: The above shows the MSO GUI. Customers can also use the MSO API to define the required templates.Printed in USA C22-743174-00 12/19。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
在为企业边缘提供应用和关键业务数据方面,企业机构面临着多重压力。
随着全球工作人员的日趋分散化,为整个机构提供出色的服务水平也日益艰难,致使IT机构不得不在每个地点部署昂贵、难以管理的基础设施,包括文件服务、电子邮件、视频、软件分发和打印服务等。
鉴于业界和政府法规的持续压力,IT机构目前面临着整合这一昂贵的基础设施,以改进数据保护、符合政府和业界法规,并满足分布式企业员工所期望的服务水平的挑战。
此外,随着应用的日趋复杂化和对网络要求的不断提高,为企业边缘提供应用和应用信息的难度也在不断加大。
思科广域应用服务(WAAS)是一个全新解决方案,旨在更好地交付应用和整合基础设施,并充分利用现有资金和运营资产的优势。
挑战尽管公司高管们对IT资源的期望值不断升高,但IT预算并没有相应增长。
几乎所有管理着分布式基础设施的IT机构都希望整合昂贵的远程机构基础设施,控制资金和运营开支。
另外,随着应用不断朝着日趋庞大化和复杂化发展,由此造成网络负载不断加大,广域网性能对应用交付的影响也日益严重。
在当前分散程度极高的基础设施和早已过载的广域网环境下,数据保存策略、业务连续性、灾难恢复和一致性要求等问题则使情况进一步恶化。
集中IT基础设施能够节约运营开支和资本开支,简化数据保护流程。
许多供应商尝试利用单点产品解决这类问题,但并不能使IT机构有效地利用现有在网络智能上的投资。
思科WAAS解决了广域网问题思科广域应用服务(WAAS)解决方案结合了应用加速技术和广域网优化技术,使应用供应的两难问题得以有效解决,既推动了分布式服务器和存储的整合,又提高了已集中的服务的性能,而且保持了正在集中的服务的性能水平。
思科WAAS是部署在广域网两边的设备,即思科广域应用引擎(WAE)之上,它提供了应用专用加速和广域网优化功能。
思科WAE引擎如图1所示,可作为路由器中集成的网络模块,也能作为独立设备,部署在数据中心和远程分支机构的数据传输路径之外,支持高可用性、可扩展性和故障直通操作。
借助思科WAAS,IT机构能够更好地达成下列目标:∙将昂贵的分布式IT资源,如服务器和存储,集中在数据中心∙提高吞吐率,更好地向企业边缘提供应用和应用数据∙提高效率,并控制现有广域网连接的带宽占用∙满足远程机构用户对应用性能的期望思科WAAS通过一系列优化技术实现上述优势,在保证对所有应用安全的同时,对客户端、服务器和网络透明。
这些优化技术包括:∙功能强大的应用专用加速和协议专用加速——通过协议加速、提前读取、批操作、多路复用和安全缓存,思科WAAS解决了应用层的性能问题,如延迟和带宽占用等。
因此完全符合协议规范、实现了数据的完全一致性,并且与本地广域网接入相比,极大地提高了用户性能。
∙独立于协议的高级网络压缩功能——思科WAAS能够利用多种长期有效的压缩技术,包括基于标准的压缩和跨协议数据压缩,压缩正在处理的数据,因而最大限度的缩减了所用网络带宽,提高了应用吞吐率。
∙对网络友好的吞吐率提高技术——思科WAAS提供了TCP优化功能,提高了广域网使用效率,改进了广域网事件处理,包括数据包丢失、拥塞和恢复。
因此,通信节点不会受到有问题的广域网环境的影响,思科WAAS也能够通过优化来管理这些问题,以改进吞吐率、性能和响应速度。
借助思科WAAS,所有基于TCP的应用都能受益于网络和应用专用加速技术的优势,包括互联网和内部网应用、数据库、文件服务、文件传输、电子邮件、数据保护、远程桌面应用、客户端-服务器应用、数据保护等。
图 1. 思科WAE设备和路由器中集成的网络模块思科WAAS通过下列应用加速和广域网优化特性,推动了基础设施整合,提高了广域网使用效率和应用交付性能:∙思科WAAS传输流优化(TFO)—思科WAAS提供的优化功能,改进了TCP在广域网故障情况时的行为,消除了与数据包丢失、拥塞、恢复和LFNs有关的问题。
借助思科WAAS TFO,通信节点与广域网环境隔离,WAE设备代表节点管理广域网环境,以确保可用容量发挥最大的效用,降低数据包丢失和拥塞的影响,并提高吞吐率。
TFO保留了分组网络友好的特点,能与其他利用标准TCP实施通信的网络节点安全共处。
∙思科WAAS重复数据消除(DRE)技术——DRE是保存出现于TCP字节流中的双向数据块的数据库。
DRE能够检查输入TCP流量,识别每个数据流的模式。
模式在识别并添加至DRE数据库后,可用于创建压缩历史记录,重复的模式则被很小的签名所替代,这些签名能指导远程设备如何重建原始信息。
借助思科WAAS DRE,最大限度地降低了带宽使用率,由于只需在广域网上交换少许数据包,因此,与传输数据相关的延迟也得以最大限度地缩减。
DRE保持了应用和协议的完全一致性和准确性,因为由远程WAE重建的原始信息必须经过多个级别的准确性验证。
它能应用于TCP字节流,且独立于应用协议。
从一个应用流学习到的模式,也能用于属于不同应用的另一个数据流。
根据应用、数据和工作负载的不同,DRE提供了从2:1到100:1的压缩功能。
∙持续Lempel-Ziv (LZ)压缩——思科WAAS采用面向连接的LZ压缩技术,以进一步最大限度地减少TCP连接所用的带宽量。
持久稳固的LZ压缩技术能与DRE共用,也能单独使用,根据使用的应用和所传输的数据的不同,在DRE提供的压缩以外,还提供了2:1到5:1的压缩功能。
∙应用流量策略(ATP)——ATP是一个功能强大的加速和优化管理工具,为管理员配置思科WAAS 对特定应用协议如何处理,提供了所需的灵活性和控制功能。
思科WAAS出厂时为150多种流量类型和25个以上的应用组配置了缺省策略,管理员可以轻松地调整现有策略,或针对环境中的其他应用流量创建新的策略。
∙业界领先的思科广域文件服务软件(WAFS)——思科WAAS是在思科WAFS系列提供的强大的WAFS功能基础上构建的。
通过协议专用优化、安全缓存、提前读取、多路复用和管线技术,思科WAAS为网络边缘的通用互联网文件系统(CIFS)客户端提供了扩展的文件服务加速功能,能够安全地克服协议特定的性能限制,如延迟、数据传输和带宽使用等。
借助思科WAAS文件协议加速特性,远程机构用户能够以类似局域网的性能来访问集中文件服务器。
思科WAAS还提供了Windows兼容的打印服务,支持“点击打印”、集中驱动分配和Active Directory发布功能。
另外,需要在广域网上传输和交换信息时,应用加速技术还能受益于思科WAAS 广域网优化组件提供的吞吐率改进和压缩优势。
∙可扩展应用平台——思科WAAS能够满足当前和未来的应用供应和基础设施整合要求。
思科WAAS提供的模块化软件架构允许添加功能强大的应用专用适配器、广域网优化组件或其他优化层的透明集成,因而提供了投资保护。
∙部署灵活性和可用性——思科WAAS是当前唯一能够提供部署灵活性、可用性和分组网络透明性的应用交付平台。
思科WAAS能够与客户端、服务器和网络透明集成,保留了应用配置和网络特性配置。
网络截获技术,如WCCPv2和PBR,以及服务器负载均衡(SLB)平台,如思科内容服务模块(CSM)和适用于Cisco Catalyst 6509多层交换机的思科ACE系列应用控制引擎,提供了具备高可用性、可扩展性和负载均衡功能的故障直通操作。
思科WAAS和思科WAE设备能采用高可用性的负载均衡配置,保留了从端到端的完全网络透明性。
思科WAAS的透明性能够帮助IT机构保护现有网络特性(如QoS、NBAR和NetFlow等)的资本和运营投资。
∙网络透明性——思科WAAS提供了透明优化功能,保留了对于网络特性运行十分关键的原始分组报头信息,包括源和目的地IP和TCP信息,使中间的路由器、交换机和防火墙能够继续执行分组优化功能,如分类、优先级划分、访问控制、队列、控制、NetFlow和路由决策等。
下面讨论了思科WAAS 解决方案的各项先进特性。
部署灵活性思科WAAS应用加速和广域网优化与分组网络是密不可分的。
通过采用WCCPv2、PBR或SLB技术,如Cisco Catalyst 6000 CSM或ACE模块,思科WAAS将透明性集成入分组网络,无需更改客户端、服务器或网络特性。
思科WAAS提供了高可用性、可扩展性和透明性,完全保留了安全、记帐和应用专用策略。
当集成入分组网络时,思科WAAS提供了功能强大的应用加速和广域网优化功能,能够实现基础设施的整合并提高广域网效率。
∙WCCPv2,由思科系统公司率先开发,将应用加速技术透明地集成到高度可用的负载共享网络之中。
位于特定地点的思科WAE设备会将其可用性告知路由器(或交换机、多个路由器,或用于支持网络路径高可用性的交换机),并确定应转发给WAE的TCP流量。
当WAE设备和路由器一起加入服务组时,该路由器能够监控应转发至WAE、而非原始目的地的流量。
随着WAE开始接收流量,它根据配置的应用策略有选择地实施优化和协议级处理。
借助WCCPv2,最多32个WAE和32台路由器能加入一个服务组,每个负责接收一部分工作负载,否则它们就会未经优化穿越广域网。
如果一个WAE发生故障,剩余的成员则分担故障WAE的负载。
如果某个地点的所有WAE设备都出现故障,流量则以未优化的方式在广域网上转发,直至某一WAE恢复。
∙PBR是思科WAAS和思科WAE的另一个部署选项。
借助PBR,网络管理员能够将一个或多个WAE配置成适用于所有或特定TCP流量的下一跳路由器。
随着该路由器开始接收TCP流量,它作为下一跳路由器将流量转发给WAE,由WAE根据配置的应用策略实施优化。
如同WCCPv2一样,PBR提供了透明的分组网络集成功能,如果一个WAE故障,通过将另一个WAE用作下一跳,它还为远程机构或数据中心提供了高可用性。
如果所有WAE都出现故障,基于策略的路由将无法实施,流量则以未优化的方式在广域网上转发,直至某一WAE恢复。
当WAE部署于分组网络时,它可以根据应用策略着手实施网络和应用优化。
对于使用应用适配器的应用,应用层消息传送能够本地端接,以消除延迟和取消不必要的数据传输。
对于必须穿越广域网的TCP流量,WAE能在不干扰正常运行的情况下标记数据包,以便其被一个远程WAE(通过WCCPv2或PBR)接收时,两个WAE能够相互识别,建立对等,协调优化功能,并最终对必须穿越广域网的流量实施优化。
设备自动发现思科WAAS能够透明地与分组网络集成,还能自动发现源和目的地间路径上的所有思科WAE设备。
每个TCP连接建立后,思科WAAS能在不干扰正常运行的情况下,标记连接请求分组,以识别通信节点间路径中的各个思科WAE,以及应根据配置的策略请求哪种优化。
远程思科WAE接收了已标记的数据包后,即能了解WAE拓扑结构,然后,可以对优化功能进行协商(图2)。