视频会议基础知识
(完整版)华为视频会议基本知识
华为视频会议基本知识1.、什么是视频会议系统?视频会议是利用现有通信网(包括各种传输网络)和数字信号压缩处理技术,将音视频和数据信号处理后传到远端,实现面对面的交流。
其交流形式为点到点,点对多点。
主要设备包括MCU(多点控制单元)、视频会议终端、网关、网守和相关的配套外围设备。
如显示设备,音响系统等。
2.、视频会议系统的作用是什么?视频会议可以实现数据、视频、语音应用的有机融合与网络资源的高效利用,与远在千里之外的人进行面对面交谈,做到远在天边,近在咫尺,并能够随时自主地组织和召开会议,进行业务调度、远程管理、信息交流、技术培训等等,节约时间和差旅经费,大大提高工作效率。
3.、视频会议的发展趋势?视频会议的发展经历了四代:第一代是70年代。
采用模拟传输,占用带宽大(960个话路),因此用户极少。
第二代是80年代。
其传输由模拟转为数字传输,由最初的数字静态传输到动态图像传输,占用带宽8—34Mbps。
第三代为90年代。
视频会议采用了国际电联(ITU)标准H.320。
正是进入商用领域。
传输带宽为64Kbps-2Mbps。
第四代为21世纪。
视频会议进入多媒体通信。
基于国际标准H.323和SIP,将音频、视频和数据融合与一体。
适用于不同的用户,不同需求的融合通信。
4.、视频会议系统对网络的需求是什么?视频会议系统可以广泛运行于IP、ISDN、FR、DDN、卫星网络等各种网络环境中。
华为终端提供E1、IP、ISDN等多种线路接口。
5. 建立视频会议系统的成本包括那些?视频会议系统的建设成本分为建设费和使用费。
建设费是一次性投资,包括视频会议设备的购买费用,基础网络的建设费用和会议室的装修费用。
使用费主要包括网络的使用费用,如电信线路的租费等。
6、视频会议有哪些国际标准?视频会议行业的国际标准是由ITU(国际电信联合会)和IETF(国际工程师组织)制定的。
主要以字母H开头。
视频会议行业的国际标准有H.320、H.323和SIP(H.324)三个主要的标准集。
视频会议基础知识培训
1.3、视频会议原理及技术介绍
信息采集 信息处理
信息传输
信息还原
音频、视频、数据
1.3、视频会议原理及技术介绍
视频会议终端将输入进来的视频使用H.261、 H.263或H.264协议、音频使用G.711、G.722或G.728、 数据、控制信令进行单独编码,然后将编码后的数据 进行“复用”打包后形成遵循网络协议的数据包,通 过网络接口传到MCU供选择广播。从MCU传来的其他会 场的数据包通过“解复用”,分别还原成视频、音频 以及数据及控制信令分别相应的输出设备上回显或执 行。 在传输的信息里面,优先级的排列顺序为:音频 ->视频->控制信令->数据。因为会议以声音为 主,当网络拥塞时,画面可能会有马塞克,但会议的 声音必然首先保证是连贯和清晰的。ຫໍສະໝຸດ 1.4.1、视频会议技术标准
ITU-T H.243:利用2Mbit/s信道在2~3个以上的视听终端建立 通信的方法 ITU-T H.320:窄带电视电话系统和终端设备
ITU-T H.323:基于IP包交换网络中多媒体业务的框架协议
ITU-T H.261:关于P X 64Kbit/s视听业务的视频编解码器 ITU-T H.263:关于低码率通信的视频编解码 ITU-T H.264:视频压缩编码标准 ITU-T G.711 话音频率的PCM脉冲编码调制 ITU-T T.120 多媒体数据会议标准 ITU-T G.735 工作在2Mbit/s并提供同步384Kbit/s数字接入 和/或同步的64Kbit/s数字接入基群复用设备的特性
最大系统容量:(媒体处理板) 带宽速率:从56 kbps 到8Mbps
网络接口:IP(FE、GE、光口)、E1、V35
混合组网能力
视频基础知识培训课件(PPT 43张)
YUV、YIQ与YCbCr颜色空间
• YUV模型用于PAL制式的电视系统,Y表示亮 度,UV并非任何单词的缩写。 Y = 0.299R + 0.587G + 0.114B U = 0.493 (B – Y) V = 0.877 (R – Y) • YUV空间相当于对RGB空间做了一个解相关的 线性变化。U和V的比值决定色调,而 (U2+V2)1/2代表颜色的饱和度。
6
YUV、YIQ与YCrCb颜色空间
7
电视扫描
逐行扫描 (non-interlaced scanning)
隔行扫描 (interlaced scanning)
8
彩色电视制式
• NTSC制式(National Television Systems Committee):是1952年美国国家电视标准 委员会定义的彩色电视广播标准 • PAL制式(Phase-Alternative Line):德国于 1962年制定。解决于NTSC在相位敏感造 成的彩色失真的缺点。 • SECAM制式:法国制定的顺序传输彩色与 存储彩色电视广播标准
复合C信号波形-PAL
15
C to S-Video
Y-ground---------------+ +----+------ RCA/composite ground C-ground---------------+ | | | | 75欧 Y-------------------------+ | | +-----+---- RCA/composite video C------------||-----------+ 470pF
29
视频/图像处理硬件的发展历史
20110929-视频会议基础知识(百问百答)
视频会议基础知识百问百答1、下图是H.323协议的基本框架,请阐述图示要点?(提示:H.245/H.225/RAS等呼叫信令的传输特点,为什么分别基于TCP/UDP来传输)答:H.323呼叫建立过程涉及3种信令:RAS信令,H.225呼叫信令和H.245控制信令。
RAS信令用来完成终端与GK之间的登记注册、授权许可、带宽改变、状态和脱离解除等过程;H.225呼叫信令用来建立两个终端之间的连接,这个信令使用Q.931消息来控制呼叫的建立和拆除;H.245控制信令用来传送终端到终端的控制消息,包括主从判别、能力交换、打开和关闭逻辑信道、模式参数请求、流控消息和通用命令与指令等。
H.323会议系统是基于分组交换的,因而会议系统中的码流在传输之前就必须进行打包,根据数据包上的标签进行统计复用。
同时,由于会议系统中的不同信息码流各自有不同的特点。
所以,它们对下层网络的承载要求也不同。
对于IP网,在实现时可以用以下方法解决个问题:音频和视频码流对实时性要求很高,即使少量的时延,对视频会议来说也是无法忍受的。
但是,它们对于少量的包丢失却不太敏感。
因此,对于音频和视频码流,采用实时传输协议RTP来对它们进行打包再运用面向无连接的UDP协议进行实时传输。
对RAS信号也采用UDP协议来传输。
相反,数据和控制信号对于服务质量要求很高,少量的包丢失或出错都是无法忍受的。
因此对于数据和控制码流,在传输层运用面向连接、提供可靠服务的TCP协议,从而完成对它们的可靠传送。
2、简述H.323终端之间如何建立呼叫过程。
(提示:信令交互过程)答:H.323终端之间建立通信关系通常执行四个控制过程:RAS,H.225.0呼叫控制(Q.931信令),连接控制(H.245)及媒体RTP信道建立的过程。
3、GK的基本功能是什么?直接(Directed)和路由(Routed)工作模式的区别是什么?答:在H.323系统中,关守是可选择的,它为H.323端点提供呼叫控制服务。
视频监控、视频会议等行业涉及的光学成像基础知识
CCD/CMOS靶面尺寸型号标准图像传感器的尺寸是影响成像表现力的硬指标之一,但许多人对图像传感器(CCD/CMOS)尺寸的表示方法大惑不解,因为像1/1.8英寸、2/3英寸之类的尺寸,既不是任何一条边的尺寸,也不是其对角线尺寸,看着这样的尺寸,往往难以形成具体尺寸大小的概念。
那么,这个尺寸到底是怎么来的呢,事实上,这种表示方法来源于早期的摄像机成像器件——光导摄像管。
一、CCD/CMOS靶面尺寸型号标准在CCD出现之前,摄像机是利用一种叫作“光导摄像管(Vidicon Tube)”的成像器件感光成像的,这是一种特殊设计的电子管,其直径的大小,决定了其成像面积的大小。
因此,人们就用光导摄像管的直径尺寸来表示不同感光面积的产品型号。
CCD出现之后,最早被大量应用在摄像机上,也就自然而然沿用了光导摄像管的尺寸表示方法,进而扩展到所有类型的图像传感器的尺寸表示方法上。
例如,型号为“1/1.8”的CCD或CMOS,就表示其成像面积与一根直径为1/1.8英寸的光导摄像管的成像靶面面积近似。
光导摄像管的直径与CCD/CMOS成像靶面面积之间没有固定的换算公式,从实际情况来说,CCD/CMOS成像靶面的对角线长度大约相当于光导摄像管直径长度的2/3。
如下图所示,白圈表示光导摄像管成像区域,绿色部分表示CCD/CMOS靶面区域:【图1】摄像管与CCD/CMOS成像区域对比二、CCD/CMOS典型靶面尺寸靶面尺寸类型:【图2】几种典型的图像传感器靶面尺寸【图3】几种典型的传统胶片尺寸三、CCD/CMOS各型号一览*转换系数(Crop Factor)是以35mm电影胶片尺寸(36×24mm)为标准设定的参考系数,其详细概念可参见“专业知识→光学成像类”栏目中的相关文章。
【图3】35mm电影胶片与不同尺寸CCD/CMOS的对比**1.8"这个标准也称为APS-C,包括有许多不同的数值,APS-C电影标准为25.1×16.7mm,索尼(Sony)的APS-C标准为21.5×14.4mm,尼康(Nikon)的"DX"图像传感器标准则为23.7×15.7mm,佳能(Canon)的APS-C包括多种型号,例如22.2×14.8mm、22.5×15.0mm等。
视频基础知识
一.视频基础知识1. 视频编码原理视频图像数据有极强的相关性,也就是说有大量的冗余信息。
其中冗余信息可分为空域冗余信息和时域冗余信息。
压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。
1.1去时域冗余信息使用帧间编码技术可去除时域冗余信息,它包括以下三部分:A.运动补偿:运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法。
B.运动表示:不同区域的图像需要使用不同的运动矢量来描述运动信息。
运动矢量通过熵编码进行压缩。
C.运动估计:运动估计是从视频序列中抽取运动信息的一整套技术。
注:通用的压缩标准都使用基于块的运动估计和运动补偿。
1.2去空域冗余信息主要使用帧内编码技术和熵编码技术:A.变换编码:帧内图像和预测差分信号都有很高的空域冗余信息。
变换编码将空域信号变换到另一正交矢量空间,使其相关性下降,数据冗余度减小。
B.量化编码:经过变换编码后,产生一批变换系数,对这些系数进行量化,使编码器的输出达到一定的位率。
这一过程导致精度的降低。
C.熵编码:熵编码是无损编码。
它对变换、量化后得到的系数和运动信息,进行进一步的压缩。
2. 视频编码解码标准2.1 H.264H.264是国际标准化组织(ISO)和国际电信联盟(ITU)共同提出的继MPEG4之后的新一代数字视频压缩格式,它即保留了以往压缩技术的优点和精华又具有其他压缩技术无法比拟的许多优点。
H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。
举个例子,原始文件的大小如果为88GB,采用MPEG-2压缩标准压缩后变成3.5GB,压缩比为25∶1,而采用H.264压缩标准压缩后变为879MB,从88GB到879MB,H.264的压缩比达到惊人的102∶1。
视频会议重要基础知识点
视频会议重要基础知识点视频会议已成为当今现代通信的重要手段之一。
作为一个大学教授,了解一些视频会议的基础知识点可以帮助我们更好地应对工作和学习中的挑战。
以下是视频会议的一些重要基础知识点:1. 视频会议的定义和作用:视频会议是一种通过网络连接远程参与者的交互式通信方式。
它可以用于远程办公、远程教育、商务会议等各种场景,使得参与者能够面对面地交流和协作,节约时间和成本。
2. 视频会议的基本组成:视频会议系统通常由摄像头、麦克风、扬声器和显示设备等硬件组成。
软件方面,视频会议系统需要支持音视频编码、传输协议和会议控制等功能。
3. 视频会议的传输方式:视频会议可以通过不同的传输方式实现远程通信。
常见的传输方式包括IP网络传输和ISDN传输。
IP网络传输是目前主流的方式,可以利用互联网实现远程通信。
4. 视频会议的网络要求:视频会议对网络的要求比较高,主要包括带宽、延迟、抖动和丢包率等指标。
为了获得良好的视频质量和流畅的会议体验,需要保证网络的稳定性和足够的带宽支持。
5. 视频会议的会议控制:视频会议系统需要支持会议控制功能,包括会议预约、会议邀请、会议记录和会议结束等操作。
会议控制可以通过中心服务器或分布式方式进行管理。
6. 视频会议的安全性:视频会议中的信息传输需要保证安全性,防止信息被窃取或篡改。
常用的安全措施包括加密传输、身份验证和权限管理等。
7. 视频会议的常用应用:视频会议广泛应用于各个领域,包括远程办公、在线教育、远程医疗和跨地域协作等。
它能够提高工作效率、降低沟通成本,促进信息共享和合作创新。
以上是视频会议的一些重要基础知识点。
对于大学教授来说,了解并掌握这些知识将有助于更好地利用视频会议技术进行教学和研究工作。
视频会议基础知识培训
视频会议基础知识培训视频会议基础知识培训随着科技的不断发展和人们工作方式的转变,视频会议已成为各行各业中不可或缺的一部分。
无论是商务会议、学术讨论,还是在线教育和远程医疗等领域,视频会议都能为人们提供高效、便捷的沟通渠道。
然而,对于初学者而言,视频会议的概念、技术和使用方法可能会感到有些困惑。
因此,本文将为您介绍视频会议的基础知识,帮助您更好地了解、学习和运用视频会议。
一、什么是视频会议视频会议是指通过网络连接,利用摄像头和麦克风等设备,进行远程实时的语音和视频交流的一种通讯方式。
它可以在不同的地理位置、时间和设备上进行会议,节省巨大的人力、时间和费用,提高沟通效率和决策速度。
二、视频会议的分类根据会议规模和参与情况,视频会议可以分为以下三种类型。
1.一对一视频会议:只有两个参与者在同一时间进行视频会议,如个人通讯或商务洽谈等。
2.多方视频会议:此时会议室内有多个参与者同时在线参与,如大型企业会议或学术会议等。
3.直播视频会议:会议的内容和形式通过网上直播形式传达给大量通过网络收听或观看的观众,如在线培训或商业演讲等。
三、视频会议的基本要素1.硬件设备:通常包括视频会议摄像头、麦克风、扬声器、投影屏幕等。
这些设备可以帮助参与者在不同地点进行顺畅的视频会议。
2.网络环境:视频会议需要快速、稳定的网络环境。
它可以基于局域网或互联网,通过视频会议软件和设备传输和接收语音和视频信号。
3.视频会议软件:流行的视频会议软件包括Zoom、WebEx、Microsoft Teams和Skype等。
这些应用程序在不同的平台上提供语音、视频、聊天和共享屏幕的功能,以帮助用户在不同的位置和设备上进行视频会议。
四、视频会议的步骤1.准备会议前的必要工作:确定参会人员、时间和地点,确保设备和网络连接情况良好,以便开始会议前进行必要的测试和调试。
2.进入会议室:打开视频会议软件,进入会议室,确保麦克风、摄像头和扬声器等设备都能够正常工作。
视频会议基础知识
RCA接口 REACHWIN
认识接口
模拟视频接口:S-Video接口
S-Video也就是在C端子的基础上将色度信号C 和亮度信号Y进行分离,再分别以 不同的通道进行传输,同C端子相比由于亮度信号和色亮信号分开传输,因此避 免了复合视频信号的亮色串扰问题。 S端子是五芯圆形接口,由两路视亮度信号、两路视频颜色度信号和一路公共屏 蔽地线共五条芯线组成
常见的视频会议摄像机控制方式以RS开头比如: RS422 RS232 •RS485
REACHWIN
视频会议产品的组成四要素
视频 体系 音频 协议
四要素
接口
控制
网络 质量
图像
REACHWIN
声音
认识接口
常见的网络接口
接口 E1 E1接口 光纤接口 以太网口 ) (ETH ETH)
REACHWIN
认识接口
REACHWIN
视频会议基础之摄像机控制
控制方式(主要应用于摄像机的远程控制)
RS232控制方式:传输距离30米左右,常用于视频会议的摄像机控制
RS422控制方式:传输距离1200米左右,常用于视频会议的摄像机控制 RS485控制方式:传输距离1200米左右,常用于视频监控的摄像机控制
REACHWIN
支持的线路类型
组网特点
组网特点
系统优势
系统优势
REACHWIN
视频会议基础之体系标准
视频会议的两大体系标准:H.320及H.323结构体系 H.320标准基于电路交换网络,DDN/ISDN/SDH E1等,产生于上世纪80年代末。 H.320的优点是传输图像的信道是固定分配的,带宽是有保证的,不会有其它业务 挤占该带宽。但由于设备之间要采用专线连接,因此对线路要求较高,组网不够灵 活。 快速记忆方法:在国内使用E1线路进行的视频会议就是采用H.320体系 H.320终端接口:
视频会议系统基础知识之标准协议
视频会议系统基础知识(之标准协议)1、视频会议系统组成通信网络:如ISDN,E1,ATM,IP专网,互联网等通信标准:H.320,H.323,SIP,私有通信标准等系统设备:视频会议终端(T),多点控制单元(MCU),媒体网关(GW),网闸/网守(GK)2、通信协议:H.323和SIP3、视频通信常用的传输协议实时传输协议RTP(Real-time Transport Protocol)该协议提供的信息包括:时间戳(用于同步)、序列号(用于丢包和重排序检测)、以及负载格式(用于说明数据的编码格式)RTP被认为是在IP网络中传输音频和视频的基本标准可视为传输层的子层,介于传输层及应用层之间3、H.323终端架构发端,从输入接口获取的视频和音频信号,经编码器压缩后,同步和复用处理,通过网络发送;收端,来自网络的数据包首先被解复用,获得视频、音频压缩数据,经解码后送入输出设备,用户数据和控制数据也得到了相应的处理。
4、视频编解码算法H.261/263/263+/263++:标清时代的视频算法H.264 AVC(H.264HP):高清视频会议主流算法,其中high profile大幅降了带宽需求,让高清普及H.264SVC/ H.265:主流技术发展趋势5、视频编解码: H.264SVC(Scalable Video Coding,可分级编码)H.264SVC是H.264标准的一个扩展,SVC的编码复杂度要超过AVCH.264SVC对于DSP性能或者CPU性能要求更高对异系统的适应性更好MCU的计算压力降低适合云服务H.264SVC在时间上可扩展一次编码产生不同的帧速率,例如:7.5帧、15帧、30帧H.264SVC空间上可扩展一次编码产生不同的分辨率,例如:180p、360p、720p、1080PH.264SVC视频质量扩展一次编码产生不同质量等级的视频6、视频编解码:H.265/HEVCH.265旨在有限带宽下传输更高质量的网络视频相比H.264,提高了压缩率,可节省39%-44%的带宽相比H.264提升了错误恢复能力,对网络的适应也显著提升H.265支持4K、8K的超高清视频。
[计算机软件及应用]从cap或pcap文件结构到视频会议基础知识
从cap或pcap文件结构到视频会议基础知识撰写人员刘祥臻撰写日期2008-9-16文档类型培训文档本文主要针对截包文件后缀为.cap或.pcap的文件剖析,以方便大家读文件开发,或理解截包工具。
根据截包工具截取的数据包文件,分析得出如下结果。
一、 文件cap或.pcap文件的结构数据包N文件头数据包1 数据包2 …….24字节不固定长度不固定长度不固定长度对于24字节的数据文件头,它的结构为:struct pcap_hdr {unsigned int magic; // magic number/4字节unsigned short version_major; // major version number/2字节unsigned short version_minor; // minor version number/2字节int thiszone; // GMT to local correction /4字节unsigned int sigfigs; // accuracy of timestamps/4字节unsigned int snaplen; // max length of captured packets, in octets /4字节unsigned int network; //data link type/4字节};比如,我们用UltraEdit打开一个.pcap文件1.对于4字节magic number(标识位),一般为16进制的 0xa1b2c3d4;2.对于2字节version_major(主版本号),默认值为0x02;3.对于2字节version_minor(副版本号),默认值为0x04;4.对于4字节thiszone(区域时间),实际上该值并未使用,因此可以将该值设置为0;5.对于4字节sigfigs(精确时间戳),实际上该值并未使用,因此可以将该值设置为0;6.对于4字节snaplen(数据包最大长度),该值设置所抓获的数据包的最大长度,如果所有数据包都要抓获,将该值设置为65535;例如:想获取数据包的前68字节,可将该值设置为68;7.对于4字节network(链路层类型),数据包的链路层包头决定了链路层的类型如下表所示:0 BSD loopback devices, except for later OpenBSD1 Ethernet, and Linux loopback devices 以太网类型,大多数的数据包为这种类型6 802.5 Token Ring7 ARCnet8 SLIP9 PPP10 FDDI100 LLC/SNAP-encapsulated ATM101 raw IP, with no link102 BSD/OS SLIP103 BSD/OS PPP104 Cisco HDLC105 802.11108 later OpenBSD loopback devices (with the AF_value in network byte order) 113 special Linux cooked capture114 LocalT alk二、 数据包的结构对于每个数据包它的结构如下数据包头数据包内容长度为16字节长度由数据包头标注三、 数据包头的结构struct pcaprec_hdr {unsigned int ts_sec; //timestamp seconds/4字节unsigned int ts_usec; //timestamp microseconds (nsecs forPCAP_NSEC_MAGIC)/ 4字节unsigned int incl_len; //number of octets of packet saved in file/4字节 unsigned int orig_len; //actual length of packet/4字节};比如,我们用UltraEdit打开一个.pcap文件1.对于4字节ts_sec, 秒计时,一个UNIX格式的精确到秒时间值,用来记录数据包抓获的时间,记录方式是记录从格林尼治时间的1970年1月1日 00:00:00 到抓包时经过的秒数;程序开发一般取包的相对时间处理。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
视频会议基础知识视频会议基础知识全系列介绍1、什么是视频会议通俗的说:视频会议系统就是为人们无法聚集到同一个地方进行会议的时候,提供一种高科技的通信、协作和决策的一种现代化手段。
专业的说:视频会议是利用现有通信网(包括各种传输网络)和数字信号压缩处理技术,将音视频和数据信号处理后传到远端,实现面对面的交流。
其交流形式为点到点,点对多点和多点对多点。
主要设备包括MCU(多点控制单元)、视频会议终端、网关、网闸和相关的配套外围设备,如显示设备、音响系统等。
2、视频会议系统协议标准视频会议行业的国际标准是由ITU电子桌牌(国际电信联合会)和IETF(国际工程师组织)制定的。
目前视频会议行业的国际标准有H.320、H.323(ITU)和SIP(IETF)3个标准集。
其中H.323是目前主流的标准。
SIP是已经确定的下一代标准。
ITU-T H.320标准是关于在速率从56Kbps到2Mbps的ISDN和交换的56Kbps电路上进行电视会议的标准。
自从1990年最早通过以后,H.320成为广泛接受的关于ISDN会议电视的标准。
H.320是一个"系统"标准,它包含了许多关于系统各部分的其它 ITU-T标准,下列标准是H.320的主要组成部分:H.320是一套标准,他包括视频、音频的压缩与解压缩、静止图像、多点会议、加密及一些更新的特性,主要用于系统的终端和MCU的设计。
H.320标准包括H.200系列标准和T.120系列标准;H.200系列指的是视听业务,具体来说是以传送活动图像为主的通信业务.T.120系列主要针对声像业务,即传送静止图像的通信业务。
?ITU-T H.323标准涵盖了音频、视频及数据在以IP包为基础的网络——LAN、INTRANET、EXTRANET和INTERNET上的通讯,建立H.323标准是为了允许不同厂商的多媒体产品和应用能够互操作。
对于范围广泛的基于IP网络的多媒体通信应用来说,H.323标准是非常重要的构件。
另外,该标准也允许通过ISDN 和POTS与基于PPP的网络直接相连。
1996年,ITU批准了H.323规范。
该标准范围广泛,涵盖了各种独立设备。
个人计算机技术以及点对点和多点视频会议。
标准解决了点对点及多点视频会议中诸如呼叫与会话控制,多媒体与带宽管理等许多问题。
H.323为现有的企业基础设施(如IP网)电子桌牌建立了多媒体标准,设计时考虑了弥补质量保证(QOS)机制的不足,H.323使用户能使用多媒体应用而无需改变他们网络的基础结构。
SIP(会话初始协议)是IETF提出的在IP网上进行多媒体通信的应用层控制协议。
SIP是IETF标准进程的一部分,它是在诸如SMTP(简单邮件传送协议)和HTTP(超文本传送协议)基础之上建立起来的。
它用来建立、改变和终止基于IP网络的用户间的呼叫。
3、相对于H.323协议标准,为什么H.320标准是落后的被淘汰的?1.终端图像与声音的编解码技术并受到人们的欢迎。
SIP能够连接使用任何IP网络(有线LAN和 WAN、公共Internet骨干网、移动2.5G、3G和Wi-Fi)和任何IP设备(电话、PC、PDA、移动手持设备)的用户,通过在单一、开放的标准SIP应用架构下合并基于IP 的通信服务,服务提供商可以大大降低为用数字会议桌面智能终端系统户设计和部署基于IP的新的创新性托管服务的成本。
SIP 的根本价值在于它能够将这些设备组合起来,形成各种更大规模的无缝通信服务。
SIP的技术优势如下:独立于接入:SIP可用于建立与任何类型的接入网络的会晤,同时还使运营商能够使用其它协议。
会晤和业务独立:SIP不限制或定义可以建立的会晤类型,使多种媒体类型的多个会晤可以在终端设备之间进行交换。
协议融合:SIP可以在无线分组交换域中提供所有业务的融合协议。
经济高效:由于SIP是与接入独立的协议,无线运数字会议桌面智能终端系统营商无需构建适用于多种接入网络的基础设施。
所以说SIP协议将是未来的趋势。
综上所述,H.320标准是已经淘汰过时的;H.323标准是目前最常用的,SIP 是面向未来的一种接入方式,代表了未来的趋势。
所以我们在建议用户使用的时候首选H.323,屏蔽H.320,同时在突出宝利通优势的时候要加上支持SIP协议,确保用户的投资。
5、视频会议系统设备组成要讲视频会议系统的组成就必须要先讲一讲视频会议的原理。
首先、视频会议要有图像和音频的采集,就必须要有摄像机和麦克风。
其次、图像音频采集完毕后需要由终端设备来处理,数字会议桌面智能终端系统即需要终端设备来对图像、音频进行编码压缩。
然后、图像、音频被编码压缩以后需要通过网络来传输。
再后、经过网络传输的编码后的图像和音频被MCU接收,再经过MCU处理后发送给各个视频终端设备。
最后、视频终端将MCU发送的视频和音频解码,换通过显示及扩音设备播放出来。
讲完原理,下面给大家介绍视频会议的组成:一般的视频会议系统包括MCU 多点控制器(视频会议服务器)、视频会议终端(会议室型硬件终端、PC桌面型硬件终端、软件视频会议终端)、网关(Gateway)、Gatekeeper(网闸)等几个部分各种不同的终端都连入MCU进行集中交换,组成一个视频会议网络。
一个完整的视频会议系统可能还包括电视墙服务器和录播服务器的增值外设。
(1)多点处理单元(MCU)MCU是视频会议系统的核心部分,为用户提供群组会议、数字会议桌面智能终端系统多组会议的连接服务。
目前主流厂商的MCU一般可以提供单机多达100个用户以上的接入服务,并且可以进行级联,可以基本满足用户的使用要求。
MCU的使用和管理不应该太复杂,要使客户方技术部甚至行政部的一般员工能够操作。
操作界面需要人性化,全中文,使用方便,并符合中国企业和政府会议的需要。
(2)大中小型会议室硬件视频会议终端产品大中小型会议室硬件视频会议终端产品是提供给用户在会议室内使用的,视频会议终端分为一体式及分体式。
一体式视频会议终端摄像头与编解码器固定在一些,分体式视频会议终端摄像头与编解码器分开,这样可增加了用户选择的余地,安装、配置可以更加灵活方便。
视频会议终端可以通过电视机或者投影仪进行视频显示,用户可以根据会场的大小选择不同的设备及数量。
建议最好选择等离子或液晶电视机,避免选择投影机。
(3)桌面型硬件视频会议终端产品桌面型硬件视频会议终端一般集成显示器、摄像机、数字会议桌面智能终端系统麦克风及扬声器,直接在该桌面型硬件视频会议终端上举行视频会议。
常规情况下只能1-4人使用,以1人使用为好(主要是给企业或政府领导在自己办公室使用)。
(4)软件视频会议终端直接在电脑安装客户端软件就可以参加视频会议,一般配置费用比较低的PC摄像头(USB摄像头),和使用耳麦实现音频采集和输出,常规情况下只能一个人使用。
(5)网关(Gateway)在基于IP网的视频会议系统中,网关是跨接在两个不同网络之间的设备,把位于两个不同网络上的会议终端连接起来组成一组会议。
网关有三大主要功能:①通信格式的转换,例如,IP网上的会议终端要和电路交换数字会议桌面智能终端系统网上的会议终端实现互访,就需通过网关来完成H.225.0码流和H.221码流之间的互译;②视频、音频和数据信息编码格式之间的互译,以完成表示层之间的相互通信;③通信协议和通信规程的互译,以完成应用层的通信。
目前,用户直接通过电话或手机在移动的情况下加入视频会议,这点对国内许多领导和出差多的人尤其重要。
可以说电话接入网关(PSTN Gateway)今后将成为视频会议不可或缺的功能。
(6)Gatekeeper(网闸)与电路交换网络上的会议系统不同,基于IP网的视频会议系统,面向的是分组交换的质量不能保证的IP网,从而导致了网闸这一特殊角色的出现。
网闸是一个可选的角色,如果没有网闸,依然能够召开视频会议。
网闸有以下三个主要的功能:①用户别名和运输层地址的翻译。
在实际应用中,用户很难记住对方会议终端的网络地址(运输层地址),而比较容易记住用户的别名。
在此情况下,网闸的作用就十分明显了。
②用户进入会场许可的管理和控制。
网闸对每一个要进入数字会议桌面智能终端系统会场的用户进行检察和论证,以确定用户的合法性。
③网络带宽的管理和控制。
通过对带宽的控制能根据网络实际情况来控制用户数或者用户的使用带宽,以此保证会议有一个基本的质量。
(7)电视墙服务器考虑到用户可能需要实现多画面同时输出,可以建议采用TVS(电视墙服务器)来实现。
TVS是视频会议系统中的一个图像服务器,通常安装在主会场上配合多台显示设备进行多路图像显示。
电视墙服务器可将参与会议的各分会场的图像数据分离并分别显示在不同的显示设备上。
多画面电视墙服务器是专为高端视频会议用户所设计,能够很好的满足高端视频会议用户对于高清晰度、多画面的应用需求。
它是单独的硬件设备,应用于视频会议系统的中心主会场。
(8)录播服务器考虑到用户可能还有对重要会议录制、直播,以及日后点播的需求,那就需要配置一台录播服务器。
录播服务器具有一下功能:同步录制:同步录制视频、音频,计算机动态屏幕,即可将主讲人的图像、声音和所讲解的课件、讲稿、鼠标操作轨迹以及电子白板上书写的内容等计算机屏幕上所显示的内容同步录制到一个文件中。
实时直播:可通过单播或多播方式将现场的视频、音频、计算机动态屏幕在网络上进行实时直播,用户可通过系统客户端软件同步接收到现场的视频、音频和计算机动态屏幕信息。
视频点播:重要的视频会议可以录制在录播服务器内,用户可以使用终端或者媒体播放系对录播服务器中的视频进行点播。
6、常用音、视协议标准介绍视频会议通常设计的协议包括:音频/视频/双流/远控/加密协议等,下面逐一介绍。
音频协议主要包括:G.722、G.711A/U、G.722.1、G.728、G.722.1 Annex C (Siren7?)、G.719(Siren14?)G.728:1992年ITU-T发布的电话声音信号编码方式推荐标准。
采用LD-CELP 编码方式,采样率为8KHz,以16kb/秒的速度传送声音信号,传送延迟时间极短,仅有0.625 ms 的算法编码延迟。
G.711:标准公布于1972年,其语音信号编码是非均匀量化PCM。
语音的采样率为8KHz,每个样值采用8bit量化,输出的数据率为64kbps。
这种窄带编码支持对300到 3,400赫兹的音频进行压缩。
但虽然压缩质量不错,但是消耗的带宽相对较大,主要用于数字PBX/ISDN上的数字式电话。
G.722:ITU-T G.722标准是第一个用于 16 KHZ 采样率的标准数字会议桌面智能终端系统化宽带语音编码算法,1984年被CCITT定义为标准,而且现今还在使用。