工具二:常用沟通话术与FAQ
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
常用沟通话术
FAQ
(当前版本:V20170522)
一、产品技术功能类
➢服务器虚拟化
我司的服务器虚拟化支持的虚拟机的操作系统的情况?
话术:主流的windows和linux都可以支持
详细解释:虚拟机的操作系统支持主要有包含两大类,Windows和Linux。
不支持Unix,所以如果有客户问到如果是小型机上的应用,如果使用超融合,可以建议客户做应用改造,通过将Unix系统上的应用迁移到Linux上(U2L的方式)实现。
我司的服务器虚拟化选择KVM的原因,具体我们的创新是什么?
话术:KVM是开源的技术,可以共享开源社区的的针对KVM不断创新的成果,可以更灵活满足客户个性化需求,KVM是目前实现向云化转型兼容性最好的技术路线。
我们在原生KVM的基础上做了稳定性和性能上很多创新和优化,例如CPU调度优化,虚拟网卡、虚拟磁盘性能优化等。
虚拟机能否跨物理主机使用CPU、内存资源?
话术:不行,服务器虚拟化的技术原理,Hypervisor只能在一个主机上调度资源,所以,一个虚拟机的CPU和内存资源同一时刻只能在一台物理主机上调度。
不同主机主要是形成集群,通过HA、DRS技术将资源在其它主机上重新分配。
补充解释:市面上主流的虚拟化解决方案有两种,一虚多、多虚一;多虚一的情况往往出现在一些特殊的业务系统,例如科研单位里的科学计算方面的业务,它们需要多台服务器共同提供计算资源服务于一个业务,而现在的技术里,分布式能够解决同样的问题,而且不会有扩增、单点等问题,还能提供更好的计算资源,而一虚多也是分布式实现天然良好的平台。
我们的虚拟化里嵌入了vAD的网络设备,为分布式提供负载均衡的部署条件。
而且,大部分厂商的虚拟化实现方案本质上都是一虚多,现在单台x86服务器能够提供的计算、存储资源已经相当高了,能够满足绝大多数业务系统的运行要求,甚至允许多个业务系统在一台服务器上运行;
Vmware经常给客户引导FT技术,我们超融合什么时候支持?
话术:超融合目前暂无支持FT的计划
补充解释:FT技术是为了保障业务高可用,实现无中断切换,在超融合是采用内嵌负载均衡模块来实现,而不是FT,同时Vmware对FT 的使用条件要求极为苛刻,比如两台虚拟机从虚拟硬件和操作系统配置
必须完全一致。
HA的触发条件过程和切换时间?
话术:HA是当物理主机上的出现掉电、物理网络中断等情况才触发,虚拟机会在集群内其他主机上重新启动,整个业务可实现分钟级的快速恢复。
具体时间取决于当前虚拟机上的应用启动时间。
➢存储虚拟化
超融合的所需的磁盘包含哪些?虚拟存储aSAN能否使用系统盘?
话术:超融合平台需要使用的磁盘,主要包含两种类型:一个是安装超融合软件的系统盘,另外一个是超融合的虚拟存储所需的缓存盘和数据盘,系统盘是不会充当虚拟化存储aSAN的数据盘使用的。
虚拟存储的SSD磁盘,是否必配,如何选择合适数量和大小容量的SSD 磁盘?
话术:SSD为必配,固态盘与机械盘配置比例建议1:10-1:20 之间,具体要根据业务对IO性能需要灵活调整
补充解释:如果客户使用存储虚拟化的方案,SSD必配,SSD的容量大小,遵循实际数据容量的10%,举个列子,比如一台超融合服务器,单台配置了2*2T磁盘,按照总体容量,则SSD需要4T*10%=400G 左右的容量空间,但是实际业务数据量有可能只有2T,则SSD只需要2T*10%=200G 其实就可以满足需求了。
在我们的超融合一体机aServer中,SSD缓存盘的数量和机械数据盘的配比可以根据业务系统特点灵活搭配,但是在实际客户项目的交付方案中,先保证SSD容量为实际业务数据量的10%,数量推荐2块。
SSD的缓存数据,如果满了会怎么处理?主机断电或者宕机后,SSD缓存盘的数据会丢失吗?
话术:正常情况下,SSD缓存在遵循合理的配置下,是不会满的,因为SSD上的缓存数据会被定时刷到数据盘中(机械磁盘),如果真出现SSD缓存长时间满的情况,也不会有数据丢失,这时候我们会有告警提示,建议根据业务需求,对缓存盘大小、数量进行扩增调整,以缓解IO增长带来的压力。
如果主机宕机后,SSD的缓存盘的数据仍然在SSD磁盘中,(SSD磁盘不是内存,掉电数据仍然保存在磁盘中)
超融合的虚拟存储是基于什么技术开发的?
话术:通过代码成熟度方面的评估,超融合的aSAN借鉴了Glusterfs 框架,aSAN在此基础上,做了很多的优化和自己的创新,完善了Glusterfs底层大量的实现代码,比如多点脑裂的问题,等等。
超融合的SSD上的读写缓存空间比例是多少,缓存的数据空间如何分布?
话术:SSD缓存盘70%的空间分配给读缓存数据、30%的空间分配给写缓存数据,SSD读缓存的数据是会分布在所有的SSD硬盘上,但是
为了保障数据的一致性,写缓存则是在底层数据盘对应的特定的一块SSD盘上。
超融合虚拟存储的中的热备盘,只能对该主机上起到磁盘冗余保护,还是针对全局的副本?
话术:目前超融合的热备盘,是全局整个集群的概念,也就是一个磁盘,可以对集群中其它节点上的磁盘损坏也可以起到冗余保护的作用,但是有一个限制是,热备盘不能和自身所处的主机上的数据形成副本,所以推荐全局采用2块热备盘。
虚拟存储中,IO本地化是什么,对于用户有什么价值?
话术:IO本地化,就是指虚拟机的运行位置和虚拟机的数据读写在同一物理主机上,当虚拟存储实现IO本地化以后,虚拟机在迁移的过程中,会优先从包含数据副本的物理节点运行。
保障了用户的应用的IO 性能,可以获得更好的应用访问体验。
➢网络虚拟化
我司的网络虚拟化中,虚拟路由器是否支持动态路由
话术:目前的版本5.0中,虚拟路由器不支持动态路由,如果客户需要使用动态路由的功能,建议客户通过上端的物理设备来实现,或者通过网络功能虚拟化中的vAF或者vAD来实现。
超融合分布式的路由器、交换机、防火墙,性能如何?
话术:基于我们目前实测,参照1路E5-2609V3的CPU,16G的内存的情况下,资源消耗占比在5%不到,分布式的防火墙目前最大可达到为10Gbps。
➢网络功能虚拟化
我司的网络功能虚拟化组件,目前已经支持的情况是什么样的
话术:截止到2016年9月,网络功能虚拟化可支持vAF、vAD、vAC。
vSSL。
➢超融合的管理平台
如果部署了2-3个独立的超融合集群,管理平台这里怎么设置?还有就是我们管理平台实现分布式的原理是什么样的,当集群中有多个物理主机,管理的主节点如何设置?
话术:多个可以通过aCenter来实现多集群的管理(aCenter需要单独部署),分布式管理平台会从集群中随机选择一个节点来作为主控节点,集群分布式底层采用cfs文件系统,来同步所有主机之间的配置,保持所有主机配置一致,
超融合虚拟化平台内置的WAF是防止管理平台受攻击,还是针对虚拟机防护?
话术:aSV内置的WAF主要是保护管理平台和虚拟化平台,但是由于虚拟化平台管理和维护整个虚拟机资源,从而间接性的从平台层面为虚拟机的安全提供了保障。
补充解释:
WAF(Web应用防护系统(也称:网站应用级入侵防御系统。
英文:Web Application Firewall),从字眼上来看就是对WEB应用进行防护。
而我们超融合内置的WAF同理是对管理平台进行防护。
而虚拟机防护我们有3种防护方式,第1种是自身平台内置的分布式防火墙(aNET中的内置的,免费开启的),主要采用ACL包过滤,针对3-4层防护;第2种是通过我们NFV中的VAF来进行防护,主要针对虚拟机上层的操作系统漏洞、DDOS攻击等7层应用层防护,包括对应用2-7层防护(需要收费);第3种是通过和第三方杀毒软件厂商合作,由第三方
杀毒软件厂商提供轻代理杀毒,目前合作的厂商有瑞星和芬氏(F-Secure),可以按需选择(需要收费)。
➢aServer一体机硬件
aServer的产品配置清单中默认自带的128G系统盘,是否占用磁盘总槽位,这个磁盘的用途是?
话术:aServer一体机的128G系统盘为内置一块SSD盘,主要用于超融合软件系统的安装,不占用aServer的磁盘槽位数
一体机硬件如何选型?
话术:一体机的硬件选型,主要是要做业务系统资源使用情况的分析和统计,按照业务新建和改造的场景,通过查看收集当前客户业务系统的资源使用量,和基于常见场景的业务资源需求估算,得出资源总容量,结合单台一体机能够提供的资源,算出具体的台数和具体单台的配置,详细的工具参看CMS中,硬件配置选型方案。
超融合的方案中服务器硬件的为什么可不配置RAID (0、1、5)
话术:传统的存储或者服务器本地磁盘配置raid,有两个目的,一个是为了将多块物理磁盘,形成一组对应的逻辑盘,另一个是做数据冗余保护,我们超融合提供了虚拟存储的方案,技术原理上是通过软件调度到每一台物理服务器上的物理磁盘,不需要借助raid的配置,通过聚合每台服务器上的物理磁盘形成一个统一的虚拟共享存储,并通过跨主
机的多副本技术解决数据的冗余保护。
对于安装超融合软件的系统盘,可以通过配置raid1来做数据保护,但是这个可以视情况而定,因为单台物理服务器的系统盘硬件故障不影响平台上业务数据,因为虚拟机的数据都是虚拟存储底层的物理磁盘上,和系统盘无关联。
➢利旧服务器硬件类
服务器利旧的场景中,安装超融合的系统盘,是否必须为SSD磁盘?
话术:不是必须
补充解释:对于超融合的系统安装盘,有两点要求,第一、容量大于60G 第二、7200转速以上的企业级硬盘,超融合的系统盘不同的选择,主要体现在系统初始安装的速度,不影响平台的运行,当平台启动后,这个性能差距是可以忽略的
客户利旧服务器的CPU配置是2*G6950 2.8GHz ,这个cpu是双核支持VT的可以做么?是否非要现在志强的E系列CPU才可以?
话术:技术上是可以支持,志强的E系列CPU不是支持超融合的必要条件
补充解释:但是由于该CPU核心数太少,超融合的服务器虚拟化本身就要占用到1个核心。
所以,在实际生产环境是没有利旧意义的,这种建议直接采用我们的一体机方案或者购买新的服务器硬件
超融合的服务器虚拟化是基于KVM技术,而KVM技术依赖于硬件辅助虚拟化技术,比如intel的VT-X、AMD的AMD-V的技术,所以我
们的超融合对物理服务器的CPU要求首先就是一定得支持这两种技术才可以。
四路的服务器是否支持部署超融合?如果有四路和两路的服务器同时存在,能做到一个集群里吗?
话术:支持
补充解释:可以加到一个集群里面,虚拟机的资源分配是vcpu为单位,单个虚拟机的能使用的CPU资源是不能超出单台物理主机提供的最大CPU资源,关于CPU路数不同组建同一个集群的问题,首先只要支持intel VT技术的CPU,一般都可以做到一个集群里,但是和具体虚拟机相关的配置,也就是分配给虚拟机的vcpu数量有没有超过最低路数那个服务器所能提供的核心数就可以。
二、产品应用场景和方案配置类
➢各类场景
1、利旧的场景中,对服务器配置有无要求
话术:利旧服务器最低配置要求:CPU总计低于8核,Intel芯片需要支持VT,AMD需要支持AMD-V,内存不低于32G、系统盘容量不低于60G,如果用虚拟存储,每台主机至少2块数据盘(SATA\SAS 都可以)以及额外一块SSD固态盘做缓存,不少于4个网口,建议6
个
注意事项:
1、固态盘与机械盘配置比例建议1:10-1:20 之间,具体要根据业
务对IO性能需要灵活调整
2、网口建议6个,管理口、存储口、vxlan口和业务口个需要一个,
通常建议存储和Vxlan做冗余
2、超融合利旧的场景中是否能够使用刀片服务器?
话术:可以
注意事项:用刀片服务器部署超融合,主要存在的问题在于刀片服务器的直连磁盘数量少,一般2块左右,服务器的网口数量不够的问题,因此建议只部署服务器虚拟化、网络虚拟化,存储资源需要通过其他存储介质提供
3、超融合的应用场景,如何评估和判断
解释:目前总部提供了超融合对应的应用场景的黑白灰名单,黑名单列举的应用场景,表示目前的版本明确不支持,白名单的应用场景表示当前版本可以支持,灰名单需要待验证。
具体的应用场景清单,具体参考知识库:
4、客户想使用网络功能虚拟化的NFV组件,是否必须配置网络虚拟化
话术:我们的超融合产品配置方案上,如果需要使用NFV(vAD、vAF)
组件,需要配置网络虚拟化aNet组件,这个主要是考虑到一旦以软件方式提供网络功能后,需要借助所化机所得实现统一管理、拓扑搭建甚至需要与虚拟化的交换机、路由器实现对接,而这些必须借助网络虚拟化才能支持
5、软件选型上面我们的ASV是必须的,是不是我们的aNET和aSAN 只能在自己的服务器虚拟化上面用,能否在VM这类其他服务器虚拟化平台上面单独使用我们aSAN组件或者aNET组件呢?
话术:超融合上aSV是必选项,我司的超融合技术实现上,aNET和aSAN必须依赖aSV才能够部署,是无法分开的,因为aSAN和aNET 与aSV在设计上采取了紧耦合方式,确保实现较高的性能发挥,所以暂时不支持在其他第三方的虚拟化平台上部署aNET和aSAN,
6、超融合方案实现的是无代理虚拟化杀毒还是轻代理虚拟化杀毒
话术:目前我们与业内知名杀毒软件厂商瑞星、芬式达成战略合作,采用轻代理模式实现虚拟机及桌面云终端安全,也就是说在需要保护虚拟机中安装占用资源极少的客户端代理,通过客户端代理对文件进行扫描、特征提取然后传输到平台内扫描服务器进行病毒查杀和匹配,而病毒库更新和查杀过程都集中在扫描服务器端,达到客户端虚拟机资源最小化占用7、如果我现在要使用超融合,现有的业务平台怎么迁移?
话术:我们提供了两种迁移工具(P2V和V2V),可将物理主机和第三方
虚拟化两种环境中应用迁移到超融合平台,无需软件厂商参与,降低迁移工作难度;迁移过程,将当前应用软件、操作系统包括数据打包成一个虚拟机镜像,通过网络方式拷贝并导入到超融合平台并启动运行,迁移完成后,之前运行的环境和数据依然存才,在迁移中出现问题,可以及时回滚到之前的状态,不影响现有的业务系统和数据,应用迁移过程要求停机迁移(确保数据一致性)
注意事项:对于运行在小型机和Unix上的应用,暂不支持迁移
8、超融合的架构组网,对物理交换机支持的协议有什么特别要求?
话术:超融合组网中,对物理交换机支持的协议没有特殊要求,只需要是基于TCP/IP协议的以太网交换机,线速转发即可,即所有端口能够同时按照标称的接口带宽实现数据转发,总的来说,交换机部分一般可以利旧现有的数据中心物理交换机。
9、用超融合来替代存储,单台超融合一体机能提供多大的IO性能?
话术:基于目前我们的实测,单台超融合一体机(E5-2630V3)的存储IOPS的性能,4K随机读可以达到7万IOPS、写可达到1.7万的IOPS 能力,支持线性扩展,10台就可提升10倍左右的性能,可满足绝大数场景的使用。
10、对于虚拟机中所运行的业务系统授权需要绑定机器码的,就等于绑死了虚拟机的硬件特征,如果在漂移或者原运行的物理机宕机,在其他物理机启用副本时,这个机器码是否会变化?
话术:虚拟机的HA和DRS这些使虚拟机漂移的技术,都不会影响机器码,因为这些特性都会被虚拟化层的Hypervisor屏蔽掉,所以虚拟机不管怎么迁移或者漂移都可以正常使用。
11、你们的SSD和存储的SSD有啥区别,SSD的寿命可以使用多久
话术:我们一体机的SSD采用的是MLC的SSD,传统的存储采用的是EMLC 和SLC,而一块480GB的MLC/SSD可以擦写平均600次,也就是480G*600= 288000GB,同样安装每天50GB写入这种固态盘至少寿命也在15年,何况我们很难实现每天50GB的数据写入
12、为什么虚拟存储不支持去重和压缩
话术:传统存储因为空间成本很高,所以会考虑用去重压缩方式获得更多的磁盘空间资源,而分布式存储磁盘成本很低,容量很大,所以空间已经不是问题,何况去重压缩需要消耗较多的CPU、内存资源;当然未来随着SSD的普及应用,我们也会支持去重和压缩技术,帮助用户进一步节约投资
13、你们超融合中的存储能否提供给其他独立服务器使用
话术:可以,超融合提供的存储除了给超融合里面的虚拟机使用,还可以通过标准的ISCSI协议,通过IP网络提供给外部的服务器使用,把超融合存储作为
一个IP SAN使用
14、我们现有的数据中心有一些老的存储如何利用起来
话术:可以,只是不同存储类型挂载方式不同而已,如果是NAS存储,使用普通交换机与服务器实现连接,通过NFS或者CIFS协议将共享文件提供给超融合虚拟机进行访问,对于IP SAN使用千兆交换机进行相连,通过裸盘映射的方式提供给具体虚拟机使用;对于FC SAN就需要借助HBA卡与光纤交换机实现相连接,同样通过裸盘映射的方式提供给虚拟机使用
➢方案价值
超融合的稳定可靠性怎样?
//超融合架构的稳定可以从技术成熟度、平台设计、可靠性功能几个方面评价:
1、首先在技术成熟度层面,软件定义计算、存储、网络的部署方式在
google等云数据中心已经被应用了10多年的时间,可以说技术已
经非常成熟。
2、其次平台设计层面,超融合采用分布式架构,集群管理节点aCenter
由选举产生,任何一个节点的故障都不会对其他几点的工作产生影
响。
3、最后超融合在计算、存储、网络以及安全功能上都有可靠性设计。
计算(虚拟机),超融合提供HA故障迁移功能,当某台主机出现
故障时,主机上的虚拟机可以在其他主机上重新拉起;存储,超融
合存储采用多副本机制,每个数据同时写多份,任何主机的故障都不会导致数据丢失;网络,2-4层交换机、防火墙都采用分布式架构,配置信息集群同步,物理节点故障不影响网络工作。
安全,超融合架构中还可以使用NFV组件vAD,通过集群方式发布多个业务,实现业务0中断。
话术:从市场上来看,超融合是基于软件定义的虚拟化技术,这些技术其实早已经被大部分的国外的互联网公司,如谷歌、亚马逊、Facebook等使用,业界很多IT厂商已经在把这种技术带入传统企业和行业中(比如阿里巴巴分布式存储技术的应用、运营商的NFV技术的应用等等)。
在过去3年内,深信服超融合技术总计支撑了超过15万台桌面云终端的稳定运行,这些得益于架构在平台、应用、数据三个层面的高可靠设计
在平台可靠性方面:超融合在平台层面和管理层面采用了分布式的架构设计,消除了任何单个主机节点的故障带来的影响,并且通过底层集成应用防火墙的安全防护技术,进一步加强了整个平台的稳定性。
在应用可靠方面:超融合提供了两种级别的可靠能力,其一就是支持分钟级别的故障切换:借助虚拟化层内嵌的HA技术,在物理节点出现故障的时候,在集群内其他物理节点上拉起虚拟机和应用。
第二种属于高级别的业务连续性访问能力(不中断切换):超融合集成了负载均衡模块,实现将多个业务虚拟机构建成集群的方式运行,在虚机或者物理节点出现异常故障情况,实现应用级别的不中断访问切换
在数据可靠性方面:采用跨主机多副本存储+数据重构技术,降低节点或者磁盘故障数据丢失的风险;而跨集群/机房数据备份技术让数据以更低
的成本实现了企业级的安全属性。
超融合的扩展性怎么样,是否有限制,你们有大规模节点部署的案例吗?如果有限制,那互联网公司像BAT,应该用的也是虚拟化,他们的业务是如何实现大规模扩展的?
话术:政府行业如天津政采、铜陵财政局都有10-20个节点的部署规模。
教育行业武汉蔡甸区教育局部署了超过20台节点。
企业行业有深信服提供了中国日报整体数据中心的解决方案。
超融合解决方案的扩展是其重要的特性,通过在集群当中加入节点就能实现资源池的快速扩展。
目前超融合单个集群可支持64个节点,并且可以通过通过aCente可以实现32个集群的统一入口管理,可以满足企业级数据中心的建设规模需求。
互联网公司的大型业务系统,都是采用分布式架构,可以在不同的主机中以业务集群方式向外提供访问,这样当需求提升时,只要扩展资源池,开启更多的虚拟机就可以满足业务规模的快速扩展。
补充解释:我们所提供的案例都是典型的客户应用场景,目前已经在武汉蔡甸区教育局部署了超过20台节点的超融合案例,当然还包括其它高校的客户,我们都有15以上个节点的案例,根据我们目前实际测试的数据,当前的超融合版本可以支持扩展到64个节点,64个节点,可以说已经满足目前大部分企业客户的数据中心的需求,当然,基于目前的支持的节点
数,我们还可以通过设计多个集群来实现超融合方案的部署,并实现统一的管理,同时超融合本身就融入了分布式的技术,分布式最大的价值在于它可以实现大规模的横向扩展,随着我们后续超融合软件版本的不断优化,会推出支持更大规模的节点的部署。
互联网公司的核心生产业务的架构设计跟业务本身的架构有很大的关系,像阿里巴巴的Oceanbase,应用架构本身就已经是分布式的了,无需再单独考虑底层基础架构的设计,每一家互联网公司采用的技术都不一样,但有一点可以肯定的,不管是阿里的Oceanbase还是像谷歌的GFS,都是基于标准化廉价的硬件单元的分布式架构,通过软件的不断优化,实现更大规模的横向扩展,这个和超融合的分布式架构理念是一致的。
关于IT运维管理的一个问题:很多大型企业,IT工作都分的很细的,有桌面运维,网络运维,网络安全运维,系统运维,数据库运维等等。
那现在一个超融合方案上去,网络、网络安全、系统运维,还能划分的这么细致吗,每个人都有这个平台管理员帐号密码,具体他们以后是要如何分工呢?
话术:在运维管理方面,超融合架构充分考虑了在数据中心内管理人员分工的问题。
平台具备分级分权管理的特性,可以根据网络、安全、应用系统、存储进行管理权限的划分,所有管理人员能管理在职权范围内的资源。
不仅如此,如果数据中心内还有二级机构或者分子公司的业务,可以将这些业务资源进行分组,划分三级管理员并给予其分组资源的管理权限。