音频编解码标准
音频的编解码
音频编码解码基本概念介绍对数字音频信息的压缩主要是依据音频信息自身的相关性以及人耳对音频信息的听觉冗余度。
音频信息在编码技术中通常分成两类来处理,分别是语音和音乐,各自采用的技术有差异。
语音编码技术又分为三类:波形编码、参数编码以及混合编码。
波形编码:波形编码是在时域上进行处理,力图使重建的语音波形保持原始语音信号的形状,它将语音信号作为一般的波形信号来处理,具有适应能力强、话音质量好等优点,缺点是压缩比偏低。
该类编码的技术主要有非线性量化技术、时域自适应差分编码和量化技术。
非线性量化技术利用语音信号小幅度出现的概率大而大幅度出现的概率小的特点,通过为小信号分配小的量化阶,为大信号分配大的量阶来减少总量化误差。
我们最常用的G.711标准用的就是这个技术。
自适应差分编码是利用过去的语音来预测当前的语音,只对它们的差进行编码,从而大大减少了编码数据的动态范围,节省了码率。
自适应量化技术是根据量化数据的动态范围来动态调整量阶,使得量阶与量化数据相匹配。
G.726标准中应用了这两项技术,G.722标准把语音分成高低两个子带,然后在每个子带中分别应用这两项技术。
参数编码:广泛应用于军事领域。
利用语音信息产生的数学模型,提取语音信号的特征参量,并按照模型参数重构音频信号。
它只能收敛到模型约束的最好质量上,力图使重建语音信号具有尽可能高的可懂性,而重建信号的波形与原始语音信号的波形相比可能会有相当大的差别。
这种编码技术的优点是压缩比高,但重建音频信号的质量较差,自然度低,适用于窄带信道的语音通讯,如军事通讯、航空通讯等。
美国的军方标准LPC-10,就是从语音信号中提取出来反射系数、增益、基音周期、清/浊音标志等参数进行编码的。
MPEG-4标准中的HVXC声码器用的也是参数编码技术,当它在无声信号片段时,激励信号与在CELP时相似,都是通过一个码本索引和通过幅度信息描述;在发声信号片段时则应用了谐波综合,它是将基音和谐音的正弦振荡按照传输的基频进行综合。
音视频编码格式汇总
一、音频编解码格式*MPEG Audio Layer 1/2*MPEG Audio Layer 3(MP3)*MPEG2 AAC*MPEG4 AAC*Windows Media audeo v1/v2/7/8/9*RealAudio cook/sipro(real media series)*RealAudio AAC/AACPlus(real media series)*QDesign Music 2(apple series)是QDesign 公司开发的用于高保真高压缩率的编码方式,类似于MP3,不过比MP3要先进。
支持流式播放.*Apple MPEG-4 AAC(apple series)*ogg(ogg vorbis音频)*AC3(DVD 专用音频编码)*DTS(DVD 专用音频编码)*APE(monkey’s 音频)*AU(sun 格式)*FLAC(fress lossless 音频)*M4A(mpeg-4音频)(苹果改用的名字,可以改成.mp4)*MP2(mpeg audio layer2音频)*WMA二、视频编解码格式*MPEG1(VCD)*MPEG2(DVD)*MPEG4(divx,xvid)*MPEG4 AVC/h.264*h.261*h.262*h.263*h.263+*h.263++*MPEG-4 v1/v2/v3(微软windows media系列)*Windows Media Video 7/8/9/10*Sorenson Video 3(用于QT5,成标准了)(apple series)*RealVideo G2(real media series)*RealVideo 8/9/10(real media series)*Apple MPEG-4(apple series)*Apple H.264(apple series)*flash video三、音视频文件格式首先要分清楚媒体文件和编码的区别:文件是既包括视频又包括音频、甚至还带有脚本的一个集合,也可以叫容器;文件当中的视频和音频的压缩算法才是具体的编码。
视频监控系统中H.265、SVAC、GBT28181、ONVIF、PSIA有什么区别?
H.264,H.264是ITU-T以H.26x系列为名称命名的视频编解码技术标准之一。
国际上制定视频编解码技术的组织有两个,一个是“国际电联(ITU-T)”,它制定的标准有H.261、H.263、H.263+等,另一个是“国际标准化组织(ISO)”它制定的标准有MPEG-1、MPEG-2、MPEG-4等。
而H.264则是由两个组织联合组建的联合视频组(JVT)共同制定的新数字视频编码标准,所以它既是ITU-T的H.264,又是ISO/IEC的MPEG-4高级视频编码(Advanced Video Coding,AVC),而且它将成为MPEG-4标准的第10部分。
因此,不论是MPEG-4 AVC、MPEG-4 Part 10,还是ISO/IEC 14496-10,都是指H.264。
H.265是ITU-T VCEG 继H.264之后所制定的新的视频编码标准。
H.265标准围绕着现有的视频编码标准H.264,保留原来的某些技术,同时对一些相关的技术加以改进。
新技术使用先进的技术用以改善码流、编码质量、延时和算法复杂度之间的关系,达到最优化设置。
具体的研究内容包括:提高压缩效率、提高鲁棒性和错误恢复能力、减少实时的时延、减少信道获取时间和随机接入时延、降低复杂度等。
H264由于算法优化,可以低于1Mbps的速度实现标清数字图像传送;H265则可以实现利用1~2Mbps的传输速度传送720P(分辨率1280*720)普通高清音视频传送。
H.265旨在在有限带宽下传输更高质量的网络视频,仅需原先的一半带宽即可播放相同质量的视频。
这也意味着,我们的智能手机、平板机等移动设备将能够直接在线播放1080p的全高清视频。
H.265标准也同时支持4K(4096×2160)和8K(8192×4320)超高清视频。
可以说,H.265标准让网络视频跟上了显示屏“高分辨率化”的脚步。
SVAC《安全防范监控数字视音频编解码技术标准》(简称SVAC,Surveillance Video and Audio Coding)。
AMR编解码格式介绍
AMR音频编码器概述及文件格式分析全称Adaptive Multi-Rate,自适应多速率编码,主要用于移动设备的音频,压缩比比较大,但相对其他的压缩格式质量比较差,由于多用于人声,通话,效果还是很不错的。
一、分类1. AMR: 又称为AMR-NB,相对于下面的WB而言,语音带宽范围:300-3400Hz,8KHz抽样2. AMR-WB:AMR WideBand,语音带宽范围:50-7000Hz16KHz抽样“AMR-WB”全称为“Adaptive Multi-rate - Wideband”,即“自适应多速率宽带编码”,采样频率为16kHz,是一种同时被国际标准化组织ITU-T和3GPP采用的宽带语音编码标准,也称为G722.2标准。
AMR-WB提供语音带宽范围达到50~7000Hz,用户可主观感受到话音比以前更加自然、舒适和易于分辨。
与之作比较,现在GSM用的EFR(Enhenced Full Rate,增强型全速率编码)采样频率为8kHz,语音带宽为200~3400Hz。
AMR-WB应用于窄带GSM(全速信道16k,GMSK)的优势在于其可采用从 6.6kb/s, 8.85kb/s和12.65kb/s三种编码,当网络繁忙时C/I恶化,编码器可以自动调整编码模式,从而增强QoS。
在这种应用中,AMR-WB抗扰度优于AMR-NB。
AMR-WB应用于EDGE、3G可充分体现其优势。
足够的传输带宽保证AMR-WB可采用从6.6kb/s到23.85kb/s共九种编码,语音质量超越PSTN固定电话。
二、编码方式1. AMR-NB:AMR 一共有16种编码方式,0-7对应8种不同的编码方式,8-15 用于噪音或者保留用。
Frame TypeMode IndicationMode RequestFrame content (AMR mode, comfort noise, or other)AMR 4,75 kbit/s111AMR 5,15 kbit/s222AMR 5,90 kbit/s333AMR 6,70 kbit/s (PDC-EFR)444AMR 7,40 kbit/s (TDMA-EFR)555AMR 7,95 kbit/s666AMR 10,2 kbit/s777AMR 12,2 kbit/s (GSM-EFR)8-AMR SID9--GSM-EFR SID10--TDMA-EFR SID11--PDC-EFR SID12-14--For future use15--No Data (No transmission/No reception)2. AMR-WB:Frame Type IndexMode IndicationMode RequestFrame content (AMR-WB mode, comfort noise, or other)AMR-WB 6.60 kbit/s11AMR-WB 8.85 kbit/s222AMR-WB 12.65 kbit/s333AMR-WB 14.25 kbit/s444AMR-WB 15.85 kbit/s555AMR-WB 18.25 kbit/s666AMR-WB 19.85 kbit/s777AMR-WB 23.05 kbit/s888AMR-WB 23.85 kbit/s9--AMR-WB SID (Comfort Noise Frame)--For future use14--speech lost15--No Data (No transmission/No reception)--二、AMR 帧格式:AMR 有两种类型的帧格式:AMR IF1 和AMR IF21. AMR IF1:IF1 的帧格式如下图所示:FrameType, Mode Indication, Mode Request 对应上面两个表格里的数。
全球流行的六大音频标准和我国_多声道数字音频编解码技术规范_新天
广 晟 数 码 数 字 音 频 编 解 码 算 法(简称“广晟数码音 频技术,DRA”),是一种同时支持立体声和多声道环绕 声的数字音频编解码技术,是《多声道数字音频编解码 技术规范》的原型。“广晟数码”拥有独立的知识产权。
该算法的特点是:采用自适应时频分块(ATFT)方 法,实现对音频信号的最优分解,进行自适应量化国《多声道数字音频编解码技术规范》 根据上述情况,基于要做出中国自主知识产权的
音频标准的考虑,2001 年,游余立博士从美国回国后, 在广东中山组建了中山正音数字技术公司,在不到一 年的时间里,开发出“中山正音”数字音频编解码技术, 申请了 12 项国内专利。
2003 年 3 月,他开发出一套全新的“数字音频编 解码算法—DRA”(多声道数字音频编解码算法)。2003 年 11 月用 C++ 开发出 DRA 编码和解码软件,将 DRA 算 法定型。2004 年 1 月,他又在 Motorala DSP 56367 芯 片上,开发出实时 DRA 解码软件。
《多声道数字音频编解码技术规范》最新的产业化 成果是:已成为国家广电总局的手持移动电视 CMMB 的 首选音频标准。在这个项目中,国家广电总局将发射两 颗卫星,通过卫星发射电视信号,在未来用手机和 PMP 等手持终端可随时随地看电视。
《多声道数字音频编码技术规范》应用的领域目前 主要有两个:一是消费类产品;二是广播电视领域。在产 业化应用方面,该标准具备了一定的产业化基础,已在芯 片设计,应用开发等方面形成了较为完整的产业链。 "
全球流行的六大音频标准和我国
《多声道数字音频编解码技术规范》
!新 天
1. 全球流行的六大音频标准 ( 1) 杜比 AC- 3 标准。从某种程度上说,美国杜比公 司的 AC-3 技术标准是目前应用最为普及的音频标准。 它具备单声道、立体声和 5.1 环绕声功能。在数字电 视、DVD 数字视盘机、影院系统等多方面得到广泛应 用。目前,美国 ATSC、欧洲 DVB、澳大利亚等国家数字电 视纷纷采用杜比 AC-3 作为数字电视的伴音标准,使其 应用更为广泛。 ( 2) MPEG- 1 音频技术标准。它是上世纪 80 年代中 期随着 MPEG 技术标准的不断成熟而推出的音频编码 技术标准。其目的是:为数字视频节目伴音,其伴音具备 8 声道(用于多语言重放)。由于其设计的目标适合于多 种语言环境的伴音,特别适用于语言环境复杂的地区。 目前,欧洲 DVB 标准中将 MPEG-1 作为音频伴音标准。 ( 3) MPEG- 2 标准。它是在 MPEG-1 的基础上开发的 一种视频编码,质量远远好于 MPEG-1,是从立体声转 换成了环绕声,所以被应用在 DVD-Video 上。MPEG-2 是 DVD-Video 唯一指定的视频编码。现在大部分 HDTV (高清电视)也采用 MPEG-2 编码,分辨率达到了 1920× 1080。 ( 4) MPEG- 2 AAC 标准。AAC 是 MPEG-2 音频编码技 术标准之一。在 MPEG-2 技术标准中的第七部分进行了 标准化(ISO/IEC+3818-7)。杜比公司从 1998 年开始 管理 ACC 的知识产权,目前 VIA LICENSING 公司负责 管理其知识产权的工作,代理 AT&T、杜比、Fraunhofer IIS 和索尼公司收取相关的知识产权费。 ( 5) DTS 标准。DTS 是英文“Digital theater sys tem”(数字影院多声道系统)的缩写。其系统设计的目 的是给电影院系统提供环绕立体声音频编码技术方 案。目前在美国有超过数万座 DTS 影院,一般认为其环 绕声效果比杜比 AC-3 好。 ( 6) WMA标准。它是微软公司开发的基于互联网络 媒体应用的数字音频压缩算法,广泛应用于互联网中 音频的压缩。由于其具有更低的码率,目前已经成为网 络音频资源的重要标准之一。继微软提出 VC-1 技术标 准后,WMA 成为微软推荐的事实标准之一。 由上可知,全球市场上音频编码的核心技术基本 掌握在美、日、欧等国家和地区的跨国巨头手中,包括: 美国的杜比、DTS、Lucent、微软、欧洲的飞利浦、Fraun- hofer 和日本的索尼公司等。据统计,目前杜比、DTS 以 及 MPEG 等国外企业组织,每年从我国收取的数字音频
AVS和H264的区别及详细介绍说明
AVS和H.264的区别及详细介绍说明AVS是数字音视频编解码技术标准的英文简称,是我国牵头制定的第二代数字音视频信源标准,具有自主知识产权,在今年被批准为国家标准,并与3月1日正式实施。
它的编码效率与竞争性国际标准MPEG-4/H.264相当,代表了国际先进水平,广泛应用于广播、通信、电视、娱乐等各个领域。
破AVS标准为我国构建“技术→专利→标准→芯片与软件→整机与系统制造→数字媒体运营与文化产业”的产业链条提供了难得的机遇。
国际上音视频编解码标准主要两大系列:ISOIECJTC1制定的MPEG系列标准;ITU 针对多媒体通制定的H.26x系列视频编码标准和G.7系列音频编码标准。
1994年由MPEG 和ITU合作制定的MPEG-2是第一代音视频编解码标准的代表,也是目前国际上最为通行的音视频标准。
经过十年多演变,音视频编码技术本身和产业应用背景都发生了明显变化,后起之秀辈出。
目前音视频产业可以选择的信源编码标准有四个:MPEG-2、MPEG-4、MPEG-4 AVC(简称H.264,也称JVT、AVC)、AVS。
可以推测,由于技术陈旧需要更新及收费较高等原因,MPEG-2即将退出历史舞台。
AVS与H.264谁将成为数字音视频产业的标准?这个问题悬而未决,对这两个标准的比较成为业界关注的焦点。
AVS是我国具备自主知识产权的第二代信源编码标准。
顾名思义,“信源”是信息的“源头”,信源编码技术解决的重点问题是数字音视频海量数据(即初始数据、信源)的编码压缩问题,故也称数字音视频编解码技术。
显而易见,它是其后数字信息传输、存储、播放等环节的前提,因此是数字音视频产业的共性基础标准。
AVS标准是《信息技术先进音视频编码》系列标准的简称,AVS标准包括系统、视频、音频、数字版权管理等四个主要技术标准和一致性测试等支撑标准。
H.264是由ITU-T的VCEG(视频编码专家组)和ISO/IEC的MPEG(活动图像编码专家组)联合组建的联合视频组(JVT:joint video team)提出的一个新的数字视频编码标准,它既是ITU-T的H.264,又是ISO/IEC的MPEG-4的第10部分。
常见的音频编码标准
常见的音频编码标准在自然界中人类能够听到的所有声音都称之为音频,它可能包括噪音、声音被录制下来以后,无论是说话声、歌声、乐器都可以通过数字音乐软件处理。
把它制作成CD,这时候所有的声音没有改变,因为CD本来就是音频文件的一种类型。
而音频只是储存在计算机里的声音。
演讲和音乐,如果有计算机加上相应的音频卡,我们可以把所有的声音录制下来,声音的声学特性,音的高低都可以用计算机硬盘文件的方式储存下来。
反过来,我们也可以把储存下来的音频文件通过一定的音频程序播放,还原以前录下的声音。
自然界中的声音非常复杂,波形极其复杂,通常我们采用的是脉冲代码调制编码,即PCM编码。
PCM通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。
然而,3G网络带来了移动多媒体业务的蓬勃发展,视频、音频编解码标准是多媒体应用的基础性标准,但其种类较多,有繁花渐欲迷人眼之感。
那么常见的编码技术就是我们必须知道的,下面我们介绍一下最常见的编码技术。
1.PCMPCM 脉冲编码调制是Pulse Code Modulation的缩写。
PCM编码的最大的优点就是音质好,最大的缺点就是体积大。
我们常见的Audio CD就采用了PCM编码,一张光盘的容量只能容纳72分钟的音乐信息。
2.W A VWA V是Microsoft Windows本身提供的音频格式,由于Windows本身的影响力,这个格式已经成为了事实上的通用音频格式。
实际上是Apple电脑的AIFF格式的克隆。
通常我们使用W A V格式都是用来保存一些没有压缩的音频,但实际上W A V格式的设计是非常灵活(非常复杂)的,该格式本身与任何媒体数据都不冲突,换句话说,只要有软件支持,你甚至可以在W A V格式里面存放图像。
之所以能这样,是因为W A V文件里面存放的每一块数据都有自己独立的标识,通过这些标识可以告诉用户究竟这是什么数据。
在WINDOWS 平台上通过ACM(Audio Compression Manager)结构及相应的驱动程序(通常称为CODEC,编码/解码器),可以在W A V文件中存放超过20种的压缩格式,比如ADPCM、GSM、CCITT G.711、G.723等等,当然也包括MP3格式。
音频压缩编码原理及标准.
离散余弦变换(DCT)
将原信号沿负方向延拓定义域,并合理选择对称坐标轴, 使其正、负轴对称,这样信号变为实轴对称的偶函数,DFT 变换后仅有余弦项而不存在正弦项,运算量大为减小。 原本的N个样本,经过对称后变为2N个 2N为抽取的样本值总数,为DCT变换的块长度。 例:采样为48KHz的PCM样值进行DCT变换,窗长分别为 21.33ms(相当于1024个样值),5.33ms(相当于256个样 值),则频率分辨率和时间分辨率分别为?
时域编码
结合声音幅度的出现概率来选取量化比特数进行 编码,在满足一定的量化噪声下压缩数码率,从 而降低比特率。
频域编码
利用人耳听觉的声掩蔽特性,在满足一定量化噪 声下来压缩码率 采用滤波和变化,在频域内将其能量较小的分量 忽略,从而实现降低比特率
子带编码:通过带通滤波器分成许多频带子带,分析每 个子带取样的能量,依据心理声学模型来编码 变换编码:变换到频域,根据心理声学模型对变换系数 进行量化和编码
对某频率的声音信号的拾取会采用中心频率接近此频率 的带通滤波器,因此,只有通过该带通滤波器的那部分 噪声才会对该信号产生影响
临界带宽——描述人耳的滤波特性
如果在一频带内噪声的功率等于该纯音的功率,且这时, 纯音刚好能被听到(临界状态),此纯音附近的窄带噪 声带宽的宽度便称为临界带宽 通常认为20Hz~20KHz内有24个临界频带
首先用一组带通滤波器把输入的音频信号分成若干个连 续的子带,然后对每个子带中的音频信号单独编码,在 接收端将各子带单独译码,然后组合、还原成音频信号。 对每个子带的采样值分配不同的比特数。低频分配较多 量化比特,高频分配较少量化比特。利用声音信号的频 谱特点及人耳的感知模型。
音频编解码介绍
音频编解码原理介绍一.为什么要进行音频编解码二.音频编解码原理三.几种基本音频编解码介绍一、为什么要进行音频编解码随着人们对多媒体图像和声音的要求越来越高,在高清晰数字电视(HDTV)和数字电影中不仅应有高质量的图像,也应当具有CD质量的立体声。
因为用数字方法记录声音比用模拟方法记录声音具有更强的优势,例如传输时抗噪声能力强、增加音频动态范围、多次翻录没有信号衰减等。
但是数字声音最大的缺陷是记录的数据量大,表现在两个方面:其一是在传输过程中,传输数字声音需要占用很宽的传输带宽;其二是在存储过程中,需要占用大量的存储空间。
所以在数字音频中需要采用数字音频压缩技术,对音频数据进行压缩。
二、音频编解码原理每张CD光盘重放双声道立体声信号可达74分钟。
VCD视盘机要同时重放声音和图像,图像信号数据需要压缩,其伴音信号数据也要压缩,否则伴音信号难于存储到VCD光盘中。
一、伴音压缩编码原理伴音信号的结构较图像信号简单一些。
伴音信号的压缩方法与图像信号压缩技术有相似性,也要从伴音信号中剔除冗余信息。
人耳朵对音频信号的听觉灵敏度有规律性,对于不同频段或不同声压级的伴音有其特殊的敏感特性。
在伴音数据压缩过程中,主要应用了听觉阈值及掩蔽效应等听觉心理特性。
1、阈值和掩蔽效应(1) 阈值特性人耳朵对不同频率的声音具有不同的听觉灵敏度,对低频段(例如100Hz以下)和超高频段(例如16KHZ以上)的听觉灵敏度较低,而在1K-5KHZ的中音频段时,听觉灵敏度明显提高。
通常,将这种现象称为人耳的阈值特性。
若将这种听觉特性用曲线表示出来,就称为人耳的阈值特性曲线,阈值特性曲线反映该特性的数值界限。
将曲线界限以下的声音舍弃掉,对人耳的实际听音效果没有影响,这些声音属于冗余信息。
在伴音压缩编码过程中,应当将阈值曲线以上的可听频段的声音信号保留住,它是可听频段的主要成分,而那些听觉不灵敏的频段信号不易被察觉。
应当保留强大的信号,忽略舍弃弱小的信号。
计算机常用声音文件格式
计算机常用声音文件格式计算机中常用的声音文件格式有很多种,每种格式有其特定的用途和优势。
以下是一些常见的声音文件格式:1. WAV(Waveform Audio File Format):WAV 是一种无损音频文件格式,通常用于存储高质量的音频。
它支持多种音频编解码器,因此可以存储各种音频数据。
2. MP3(MPEG Audio Layer III):MP3 是一种有损音频压缩格式,它可以显著减小文件大小而保持相对较高的音质。
由于其高度的压缩率,MP3 是在线音乐和音频传输中广泛使用的格式。
3. AAC(Advanced Audio Coding):AAC 是一种有损音频编码标准,通常用于在相对较低的比特率下提供较高的音频质量。
它是许多音频和视频格式(例如MP4)的默认音频编码。
4. FLAC(Free Lossless Audio Codec):FLAC 是一种无损音频压缩格式,它可以保持原始音频质量而不损失任何数据。
FLAC 文件相对较大,但适用于对音质要求较高的场景,例如专业音乐制作。
5. OGG(Ogg Vorbis):OGG 是一个开放的、免费的多媒体容器格式,其中包括音频编码格式Vorbis。
OGG Vorbis 提供了一种有损的音频压缩方案,类似于MP3,但通常在相同比特率下提供更好的音质。
6. MIDI(Musical Instrument Digital Interface):MIDI 不是一种音频文件格式,而是一种包含音符、音量和乐器信息的数字音乐标准。
MIDI 文件很小,用于存储音符和乐器信息,而不是音频本身。
7. AIFF(Audio Interchange File Format):AIFF 是一种无损音频文件格式,常用于Mac平台。
与WAV类似,AIFF支持高质量音频数据。
这些格式的选择取决于具体的应用场景、存储需求、音频质量要求等因素。
例如,对于音乐制作和专业录音,无损格式如WAV、FLAC可能更为适用;而对于在线音乐流媒体,有损格式如MP3、AAC更为常见。
各种音频视频压缩标准介绍汇总
H.264H.264是ITU-T以H.26x系列为名称命名的视频编解码技术标准之一。
国际上制定视频编解码技术的组织有两个,一个是“国际电联(ITU-T)”,它制定的标准有H.261、H.263、H.263+等,另一个是“国际标准化组织(ISO)”它制定的标准有MPEG-1、MPEG-2、MPEG-4等。
而H.264则是由两个组织联合组建的联合视频组(JVT)共同制定的新数字视频编码标准,所以它既是ITU-T的H.264,又是ISO/IEC的MPEG-4高级视频编码(AdvancedVideoCoding,AVC),而且它将成为MPEG-4标准的第10部分。
因此,不论是MPEG-4AVC、MPEG-4Part10,还是ISO/IEC14496-10,都是指H.264。
H.264是国际标准化组织(ISO)和国际电信联盟(ITU)共同提出的继MPEG4之后的新一代数字视频压缩格式,它既保留了以往压缩技术的优点和精华又具有其他压缩技术无法比拟的许多优点。
[4]1.低码率(LowBitRate):和MPEG2和MPEG4ASP等压缩技术相比,在同等图像质量下,采用H.264技术压缩后的数据量只有MPEG2的1/8,MPEG4的1/3。
[4]显然,H.264压缩技术的采用将大大节省用户的下载时间和数据流量收费。
[4]2.高质量的图象:H.264能提供连续、流畅的高质量图象(DVD质量)。
[4]3.容错能力强:H.264提供了解决在不稳定网络环境下容易发生的丢包等错误的必要工具。
[4]4.网络适应性强:H.264提供了网络抽象层(NetworkAbstractionLayer),使得H.264的文件能容易地在不同网络上传输(例如互联网,CDMA,GPRS,WCDMA,CDMA2000等)。
[4]H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。
SVAC标准介绍
SVAC标准介绍SVAC标准,即GB/T25724-2010《安全防范视频监控数字视音频编解码技术要求》,英文全称为Surveillance Videoand Audio Coding。
由公安部、工业和信息化部联合制定,自2011年5月1日正式施行,是我国第一个适用于国家安全领域的基础信息技术——信源类国家标准,具有国际先进水平,能够满足视频监控领域的安全防范需求。
基于这一标准的技术和产品,将作用于国家安全、数字城市、智能交通、商业金融、卫生医疗等多个领域。
为了加速具有我国自主知识产权的SVAC标准应用推广及产品化、产业化进程,搭建SVAC产业合作平台,有效保护国家重要视频信息安全。
2011年8月,安全防范监控数字视音频编解码产业联盟在北京成立。
2012年3月办理完民政部全部登记手续。
2013年7月召开了SVAC联盟第二次年会。
公安部、工信部、国标委、发改委、科技部5部委领导对SVAC联盟极其关注,出席各次联盟大会并发表重要讲话。
SVAC联盟是政、产、学、研、用的协同创新,对SVAC产业发展和视频深度应用具有巨大的技术推动作用。
2013年4月11日,SVAC联盟被中关村管委会认定为中关村四大“潜力产业集群之一”。
八大特点但据公开资料显示,该标准在技术上的创新主要体现在以下八个方面。
1.支持高精度视频数据,在高动态范围场景提供更多图像细节;2.支持上下文自适应二进制算术编码(CABAC)等技术,提高编码效率;3.支持感兴趣区域变质量编码,在网络带宽或存储空间有限的情况下,提供更符合监控需要的高质量视频编码;4.支持可伸缩视频编码(SVC),适应双/多码流的应用;5.支持ACELP(代数码本激励线性预测)和TAC(变换音频编码)切换的双核音频编码;6.支持声音识别特征参数编码,降低编码失真对语音/声纹识别的影响;7.支持监控专用信息(绝对时间、智能分析结果、报警信息),便于视音频内容的有效管理和综合利用;8.支持加密和认证,保证监控数据的保密性、真实性和完整性。
音频编解码技术介绍
语音编解码概述
• 语音编解码目的 • 语音编码器的主要功能就是把用户语音的 PCM(脉冲编码调制)样值编码成少量的比 特(帧)。这种方法使得语音在链路产生误 码、网络抖动和突发传输时具有鲁棒性 (Robustness)。在接收端,语音帧先被解 码为PCM语音样值,然后再转换成语音波 形。
语音编解码概述
0.625 否
8 15 kbit/s
是(Annex B) CSA-CELP
音频编码技术
PCM(Pulse Code Modulation)
模拟信号
低通防失真 滤波器
波形 编码器 量化器 PCM样本
采样: 均匀采样
量化: 均匀量化,非均匀量化(大信号采用大间隔,小信号小间隔)
PCM在通信中主要用于时分多路复用和频分多路复用.
它的音质很低,增加数据率对提高音质基本无用, 广泛用于军事保密通讯.
语音编解码概述
• 语音编码器类型(1) 语音编码器类型(1)
试图填补波形编码和音源编码的间隔: waveform coding不能解决低于16kb/s下的音质问题, source coding可压缩到2.4kb/s或更低,但音质不自然。 时域合成-分析编码器(analysis-by-synthesis, ABS)。它 和音源编码器的主要区别: 不使用2个状态(有声/无声)的模型来寻找滤波器的输 入激励信号,而是要寻找这样一种激励信号,使得这种信 号产生的波形尽可能接近原始话音波形.
• 回声消除相关标准
音频编解码标准 其它音频编解码标准
音频编码技术
当前国际上主流的新一代视音频编解码软件技术 标准是国际运动图像专家组于1999年公布的MPEG-4 技术标准,将逐渐取代现有的MPEG-1(VCD)、 MPEG-2(DVD)标准。MPEG-4主要为了实现在 有线、移动网络上传输互动的视音频内容,目前世界 主要公司的编解码软件都支持MPEG-4标准。虽然微 软等几个公司在发展自己的技术和标准,但都脱不开 MPEG-4标准底层的基础专利技术。MPEG-4等编解 码技术的革命,极大地扩展了数字多媒体的应用市场。
我国自主的CMMB音频编解码技术标准
R ADIO &TELE VI SION INFORMATIONCM M B Speci al Is sue//R ADIO &TE LEVISION INFOR MA TION RADI O &TELEVI SION I NFORMATION RADIO &TELEVISI ON INFORMATI ON1CM M B 音频介绍2006年10月24日,国家广电总局正式颁布了中国移动多媒体广播(俗称手机电视)行业标准,确定采用我国自主研发的移动多媒体广播行业标准。
其中,CM M B 技术规范中采用国家电子行业标准DR A 作为必选音频成为CM M B 终端所需支持的音频压缩编码规范之一。
其主要音频参数要求:(1)音频声道:单声道、立体声;(2)采样率:48kH z 、44.1kHz 、32kH z.其他采样率可选;(3)码率:解码支持的最大码率不低于128kbp s[1]。
DRA 音频行业标准:2007年1月4日国家信息产业部正式批准具有自主知识产权的《多声道数字音频编解码技术规范》[2]成为电子行业标准(标准号:SJ /T11368-2006,实施日期为2007年1月1日,以下简称D RA 音频标准),该标准由广东省广晟资产经营有限公司属下的广州广晟数码技术有限公司自主研发,并经电子行业标准管理部门审核编制而成的。
至此,我国目前唯一完全独立自主知识产权的音频编解码技术标准诞生。
准针对CM M B 低码率、移动性的应用特性,DRA 音频标进行特殊优化后满足CM M B 传输的各种要求。
DRA 编码算法进行了多次主观声音质量测试:(1)国内测试:根据I TU R B S 6小损伤声音主观测试标准,在国家数字电视系统测试实验室对D R A 编码算法进行了严格测试在384kbp s 码率下5.1声道获得4.9分;128k bps 码率立体声获得4.7分。
同时测试结果也表明:DRA 技术在每声道64k bp s 的码率时即“达到了EBU (欧洲广播联盟)定义的‘不能识别损伤’的音频质量”。
音频编解码标准
音频编解码标准汇总PCM编码(原始数字音频信号流)类型:Audio制定者:ITU-T所需频宽:1411.2 Kbps特性:音源信息完整,但冗余度过大优点:音源信息保存完整,音质好缺点:信息量大,体积大,冗余度过大应用领域:voip版税方式:Free备注:在计算机应用中,能够达到最高保真水平的就是PCM编码,被广泛用于素材保存及音乐欣赏,CD、DVD以及我们常见的 WAV文件中均有应用。
因此,PCM约定俗成了无损编码,因为PCM代表了数字音频中最佳的保真水准,并不意味着PCM就能够确保信号绝对保真,PCM 也只能做到最大程度的无限接近。
要算一个PCM音频流的码率是一件很轻松的事情,采样率值×采样大小值×声道数 bps。
一个采样率为44.1KHz,采样大小为16bit,双声道的PCM 编码的WAV文件,它的数据速率则为44.1K×16×2 =1411.2 Kbps。
我们常见的Audio CD 就采用了PCM编码,一张光盘的容量只能容纳72分钟的音乐信息。
WMA(Windows Media Audio)类型:Audio制定者:微软公司所需频宽:320~112kbps(压缩10~12倍)特性:当Bitrate小于128K时,WMA几乎在同级别的所有有损编码格式中表现得最出色,但似乎128k是WMA一个槛,当Bitrate再往上提升时,不会有太多的音质改变。
优点:当Bitrate小于128K时,WMA最为出色且编码后得到的音频文件很小。
缺点:当Bitrate大于128K时,WMA音质损失过大。
WMA标准不开放,由微软掌握。
应用领域:voip版税方式:按个收取备注:WMA的全称是Windows Media Audio,它是微软公司推出的与MP3格式齐名的一种新的音频格式。
由于WMA在压缩比和音质方面都超过了MP3,更是远胜于RA(Real Audio),即使在较低的采样频率下也能产生较好的音质,再加上WMA有微软的Windows Media Player 做其强大的后盾,所以一经推出就赢得一片喝彩。
h.323标准
h.323标准摘要:1.H.323 标准的概述2.H.323 标准的发展历程3.H.323 标准的主要内容4.H.323 标准的应用领域5.H.323 标准的影响与未来发展正文:【H.323 标准的概述】H.323 标准是一种用于音视频通信的技术标准,由国际电信联盟(ITU)制定。
该标准定义了音视频终端设备、网关和多点控制单元(MCU)之间的通信协议,以实现音视频会议、电话和实时传输等多媒体通信服务。
H.323 标准旨在支持异构网络环境中的多媒体通信,并提供与传统电话系统的互操作性。
【H.323 标准的发展历程】H.323 标准自1995 年开始制定,经历了多个版本的更新。
随着音视频通信技术的不断发展,H.323 标准也在不断完善。
从最初的H.323v1 版本到目前的H.323v7 版本,该标准已经涵盖了音视频通信的各个方面,包括音频、视频、数据传输和网络控制等。
【H.323 标准的主要内容】H.323 标准主要包括以下几个方面的内容:1.音视频编解码技术:H.323 标准支持多种音视频编解码技术,以适应不同的网络环境和设备性能。
2.通信协议:H.323 标准定义了音视频通信的协议,包括音视频流的传输、控制信令的交换和设备之间的协商等。
3.网络控制:H.323 标准支持多种网络控制方式,包括点对点、多点和星型网络等。
4.安全性:H.323 标准提供了音视频通信的安全机制,包括加密、认证和授权等。
【H.323 标准的应用领域】H.323 标准广泛应用于音视频通信领域,如远程会议、远程教育、远程医疗和多媒体呼叫中心等。
通过H.323 标准,用户可以实现高质量、低延迟的多媒体通信服务,提高工作效率和生活品质。
【H.323 标准的影响与未来发展】H.323 标准的制定和推广,对音视频通信技术产生了深远的影响。
它使得音视频通信设备和系统之间的互操作性得到提高,推动了音视频通信技术的普及和发展。
音频编码和解码的格式和标准
音频编码和解码的格式和标准音频编码(Audio Coding)和解码(Audio Decoding)是将音频信号通过数字化处理转换成数字音频数据,并且再将数字音频数据还原为模拟音频信号的过程。
为了实现音频的高保真传输和存储,音频编码和解码的格式和标准被广泛应用于音频技术、通信技术、多媒体应用等领域。
本文将介绍音频编码和解码涉及的格式和标准。
一、音频编码格式1. PCM编码(脉冲编码调制)PCM编码是将模拟音频信号通过脉冲编码调制转换为数字音频数据的一种编码格式。
PCM编码对音频信号进行采样,并以固定的码率表示采样值,提供了高保真的音频质量,被广泛应用于CD、DVD等媒体存储格式中。
2. ADPCM编码(自适应差分脉冲编码调制)ADPCM编码是一种基于脉冲编码调制的压缩音频编码格式。
它通过对连续采样值之间的差异进行编码,从而减小了数据的传输量,提高了存储和传输效率。
ADPCM编码常用于语音通信和实时音频传输领域。
3. MP3编码(MPEG音频层3)MP3编码是一种基于MPEG音频压缩标准的音频编码格式。
MP3编码利用了人耳对声音频率和响度的不敏感性,通过保留重要信号的同时舍弃不重要的信号,实现了非常高的音频压缩比率。
MP3编码已被广泛应用于音乐播放器、流媒体服务等领域。
4. AAC编码(Advanced Audio Coding)AAC编码是一种高效的音频编码格式,它在保留高音质的同时,相较于MP3编码,具有更高的压缩效率。
AAC编码多用于数字音频广播、数字电视、移动通信和音乐流媒体等场景。
二、音频解码格式音频解码格式与编码格式相对应,用于将数字音频数据解码为模拟音频信号。
1. PCM解码PCM解码将PCM格式的数字音频数据转换为模拟音频信号。
解码过程将采样值转换为模拟连续波形信号,并通过数字到模拟转换器输出。
2. ADPCM解码ADPCM解码将ADPCM编码的数字音频数据恢复为模拟音频信号。
解码过程通过解码器对差分编码的数据进行恢复,得到原始的PCM码流,然后再进行解压缩得到模拟音频信号。
l2hc团体标准
l2hc团体标准
L2HC团体标准是一种无线音频编解码标准,全称为《低延迟低复杂度高清音频编解码技术规范》。
它是我国首个高清无线音频编解码标准,也是全球首个统一架构、全码率无线音频编解码标准。
该标准在传输速率、抗干扰、兼容性等多个方面全球领先。
L2HC团体标准具有强大的抗干扰能力,可以在商场、机场等强干扰环境中提供稳定的高清音频体验。
它支持96kHz/24bit高清音频传输,并具有细腻平滑的自适应码率切换功能,确保无损音质的实时传输。
此外,L2HC团体标准还兼容蓝牙、星闪等传输技术,推动无线音频体验向高清无损、母带音质等方向持续演进。
L2HC团体标准的特点如下:
1.高传输码率:峰值码率可达1920kbps,是目前唯一超越CD 级无损音质传输码率要求的无线音频编解码标准。
这意味着它能够提供更快、更稳定的音频传输,确保无损音质的实时传输。
2.强大的抗干扰能力:基于场景变化,自适应码率切换,能够在商场、机场等强干扰环境中提供稳定的高清音频体验。
无论用户身处何处,都可以享受到清晰、流畅的音频效果。
3.高度兼容性:可以兼容蓝牙、星闪等传输技术。
同时,支持5ms、10ms帧长,使得看视频、玩游戏以及空间音频中的音频传输更加流畅,更具沉浸感。
总的来说,L2HC团体标准是一种先进的无线音频编解码标准,具有高传输码率、强大的抗干扰能力和高度兼容性等特点。
它能够提供更快、更稳定、更高质量的无线音频传输,为无线音频设备提供了卓越的性能和稳定的连接。
ldac_aptx和aptx hd功能介绍及区别介绍
ldac_aptx和aptx hd功能介绍及区别介绍LDAC技术的功能介绍LDAC是索尼研发的一种无线音频编码技术,它最早在2015年的CES消费电子设备大展上亮相。
在当时,索尼表示比起标准的蓝牙编码、压缩系统,LDAC技术要高效三倍之多。
这样一来,那些高解析度的音频文件在进行无线传输的时候就不会被过分压缩,以至于极大损失音质了。
在传输LPCM高解析音频时,LDAC 技术能够保持它最大的位深和频响范围,即使是达到了96kHz/24bit的音频都能够完成高质量的传输。
与之相比,传统的蓝牙音频传输技术,在传输LPCM音频前,首先需要做的是将该高解析视频劣化到44.1kHz/16 bit的CD品质,然后再经过328kbps的传输,相当于两次大幅度的信息量损失,最终的质量离CD品质还要相去甚远。
LDAC提供了三种传输模式,首先是完全以质量为最优先的990kbps模式,接下来是默认的660 kbps普通模式,最后是和普通蓝牙标准差不多的330kbps模式,主要是为了保证连接质量。
我们在Android O开发者预览版的截图中,可以看到LDAC在该系统里同样提供了这三种传输模式。
aptX是一个音频编解码标准,该标准和蓝牙A2DP的立体声音频传输协议整合,传统蓝牙的立体声音频的编码标准是:SBC,俗称窄带编码,aptX是CSR推出的新的编码标准。
SBC编码的条件下,蓝牙立体声音频传输延迟时间在120ms以上,而采用aptX的编码标准,蓝牙立体声音频传输延迟时间在40ms。
而大部分人能感觉到的延迟做小数字是70ms 左右,所以,如果采用aptX的标准,在实际使用中,用户是感觉不到延迟的,就如直接用裸耳看电视一样的体验效果。
SBC是一个公共的协议,各个厂商的设备都可以相互很好兼容,而aptX是CSR的私有协议,所以,从电视,到耳机/音箱这样的设备,都需要采用CSR的软件技术或者芯片技术,方才能支持。
aptX HD的出现和高清音频的人气提升有关,它能够支持高达24-bit/48kHz的音频,也就是说我们将可以用无线设备听到音质更棒的音乐。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
音频编解码标准PCMU(G.711U)类型:Audio制定者:ITU-T所需频宽:64Kbps(90.4)特性:PCMU和PCMA都能提供较好的语音质量,但是它们占用的带宽较高,需要64kbps。
优点:语音质量优缺点:占用的带宽较高应用领域:voip版税方式:Free备注:PCMU and PCMA都能够达到CD音质,但是它们消耗的带宽也最多(64kbps)。
如果网络带宽比较低,可以选用低比特速率的编码方法,如G.723或G.729,这两种编码的方法也能达到传统长途电话的音质,但是需要很少的带宽(G723需要5.3/6.3kbps,G729需要8kbps)。
如果带宽足够并且需要更好的语音质量,就使用PCMU 和PCMA,甚至可以使用宽带的编码方法G722(64kbps),这可以提供有高保真度的音质。
PCMA(G.711A)类型:Audio制定者:ITU-T所需频宽:64Kbps(90.4)特性:PCMU和PCMA都能提供较好的语音质量,但是它们占用的带宽较高,需要64kbps。
优点:语音质量优缺点:占用的带宽较高应用领域:voip版税方式:Free备注:PCMU and PCMA都能够达到CD音质,但是它们消耗的带宽也最多(64kbps)。
如果网络带宽比较低,可以选用低比特速率的编码方法,如G.723或G.729,这两种编码的方法也能达到传统长途电话的音质,但是需要很少的带宽(G723需要5.3/6.3kbps,G729需要8kbps)。
如果带宽足够并且需要更好的语音质量,就使用PCMU 和PCMA,甚至可以使用宽带的编码方法G722(64kbps),这可以提供有高保真度的音质。
ADPCM(自适应差分PCM)类型:Audio制定者:ITU-T所需频宽:32Kbps特性:ADPCM(adaptive difference pulse code modulation)综合了APCM的自适应特性和DPCM系统的差分特性,是一种性能比较好的波形编码。
它的核心想法是:①利用自适应的思想改变量化阶的大小,即使用小的量化阶(step-size)去编码小的差值,使用大的量化阶去编码大的差值;②使用过去的样本值估算下一个输入样本的预测值,使实际样本值和预测值之间的差值总是最小。
优点:算法复杂度低,压缩比小(CD音质>400kbps),编解码延时最短(相对其它技术)缺点:声音质量一般应用领域:voip版税方式:Free备注:ADPCM (ADPCM Adaptive Differential Pulse Code Modulation), 是一种针对16bit (或者更高?) 声音波形数据的一种有损压缩算法, 它将声音流中每次采样的16bit 数据以4bit 存储, 所以压缩比1:4. 而压缩/解压缩算法非常的简单, 所以是一种低空间消耗,高质量声音获得的好途径。
LPC(Linear Predictive Coding,线性预测编码)类型:Audio制定者:所需频宽:2Kbps-4.8Kbps特性:压缩比大,计算量大,音质不高,廉价优点:压缩比大,廉价缺点:计算量大,语音质量不是很好,自然度较低应用领域:voip版税方式:Free备注:参数编码又称为声源编码,是将信源信号在频率域或其它正交变换域提取特征参数,并将其变换成数字代码进行传输。
译码为其反过程,将收到的数字序列经变换恢复特征参量,再根据特征参量重建语音信号。
具体说,参数编码是通过对语音信号特征参数的提取和编码,力图使重建语音信号具有尽可能高的准确性,但重建信号的波形同原语音信号的波形可能会有相当大的差别。
如:线性预测编码(LPC)及其它各种改进型都属于参数编码。
该编码比特率可压缩到2Kbit/s-4.8Kbit/s,甚至更低,但语音质量只能达到中等,特别是自然度较低。
CELP(Code Excited Linear Prediction,码激励线性预测编码)类型:Audio制定者:欧洲通信标准协会(ETSI)所需频宽:4~16Kbps的速率特性:改善语音的质量:①对误差信号进行感觉加权,利用人类听觉的掩蔽特性来提高语音的主观质量;②用分数延迟改进基音预测,使浊音的表达更为准确,尤其改善了女性语音的质量;③使用修正的MSPE准则来寻找“最佳”的延迟,使得基音周期延迟的外形更为平滑;④根据长时预测的效率,调整随机激励矢量的大小,提高语音的主观质量;⑤使用基于信道错误率估计的自适应平滑器,在信道误码率较高的情况下也能合成自然度较高的语音。
结论:① CELP算法在低速率编码环境下可以得到令人满意的压缩效果;②使用快速算法,可以有效地降低CELP算法的复杂度,使它完全可以实时地实现;③CELP可以成功地对各种不同类型的语音信号进行编码,这种适应性对于真实环境,尤其是背景噪声存在时更为重要。
优点:用很低的带宽提供了较清晰的语音缺点:应用领域:voip版税方式:Free备注:1999年欧洲通信标准协会(ETSI)推出了基于码激励线性预测编码(CELP)的第三代移动通信语音编码标准自适应多速率语音编码器(AMR),其中最低速率为4.75kb/s,达到通信质量。
CELP 码激励线性预测编码是Code Excited Linear Prediction的缩写。
CELP是近10年来最成功的语音编码算法。
CELP语音编码算法用线性预测提取声道参数,用一个包含许多典型的激励矢量的码本作为激励参数,每次编码时都在这个码本中搜索一个最佳的激励矢量,这个激励矢量的编码值就是这个序列的码本中的序号。
CELP已经被许多语音编码标准所采用,美国联邦标准FS1016就是采用CELP的编码方法,主要用于高质量的窄带语音保密通信。
CELP (Code-Excited Linear Prediction) 这是一个简化的LPC 算法,以其低比特率著称(4800-9600Kbps),具有很清晰的语音品质和很高的背景噪音免疫性。
CELP是一种在中低速率上广泛使用的语音压缩编码方案。
G.711类型:Audio制定者:ITU-T所需频宽:64Kbps特性:算法复杂度小,音质一般优点:算法复杂度低,压缩比小(CD音质>400kbps),编解码延时最短(相对其它技术)缺点:占用的带宽较高应用领域:voip版税方式:Free备注:70年代CCITT公布的G.711 64kb/s脉冲编码调制PCM。
G.721类型:Audio制定者:ITU-T所需频宽:32Kbps特性:相对于PCMA和PCMU,其压缩比较高,可以提供2:1的压缩比。
优点:压缩比大缺点:声音质量一般应用领域:voip版税方式:Free备注:子带ADPCM(SB-ADPCM)技术。
G.721标准是一个代码转换系统。
它使用ADPCM 转换技术,实现64 kb/s A律或μ律PCM速率和32 kb/s速率之间的相互转换。
G.722类型:Audio制定者:ITU-T所需频宽:64Kbps特性:G722能提供高保真的语音质量优点:音质好缺点:带宽要求高应用领域:voip版税方式:Free备注:子带ADPCM(SB-ADPCM)技术G.723(低码率语音编码算法)类型:Audio制定者:ITU-T所需频宽:5.3Kbps/6.3Kbps特性:语音质量接近良,带宽要求低,高效实现,便于多路扩展,可利用C5402片内16kRAM 实现53coder。
达到ITU-TG723要求的语音质量,性能稳定。
可用于IP电话语音信源编码或高效语音压缩存储。
优点:码率低,带宽要求较小。
并达到ITU-TG723要求的语音质量,性能稳定。
缺点:声音质量一般应用领域:voip版税方式:Free备注:G.723语音编码器是一种用于多媒体通信,编码速率为5.3kbits/s和6.3kbit/s的双码率编码方案。
G.723标准是国际电信联盟(ITU)制定的多媒体通信标准中的一个组成部分,可以应用于IP电话等系统中。
其中,5.3kbits/s码率编码器采用多脉冲最大似然量化技术(MP -MLQ),6.3kbits/s码率编码器采用代数码激励线性预测技术。
G.723.1(双速率语音编码算法)类型:Audio制定者:ITU-T所需频宽:5.3Kbps(22.9)特性:能够对音乐和其他音频信号进行压缩和解压缩,但它对语音信号来说是最优的。
G.723.1采用了执行不连续传输的静音压缩,这就意味着在静音期间的比特流中加入了人为的噪声。
除了预留带宽之外,这种技术使发信机的调制解调器保持连续工作,并且避免了载波信号的时通时断。
优点:码率低,带宽要求较小。
并达到ITU-TG723要求的语音质量,性能稳定,避免了载波信号的时通时断。
缺点:语音质量一般应用领域:voip版税方式:Free备注:G.723.1算法是ITU-T建议的应用于低速率多媒体服务中语音或其它音频信号的压缩算法,其目标应用系统包括H.323、H.324等多媒体通信系统。
目前该算法已成为IP电话系统中的必选算法之一。
G.728类型:Audio制定者:ITU-T所需频宽:16Kbps/8Kbps特性:用于IP电话、卫星通信、语音存储等多个领域。
G.728是一种低时延编码器,但它比其它的编码器都复杂,这是因为在编码器中必须重复做50阶LPC分析。
G.728还采用了自适应后置滤波器来提高其性能。
优点:后向自适应,采用自适应后置滤波器来提高其性能缺点:比其它的编码器都复杂应用领域:voip版税方式:Free备注:G.728 16kb/s短延时码本激励线性预测编码(LD-CELP)。
1996年ITU公布了G.728 8kb/s 的CS-ACELP算法,可以用于IP电话、卫星通信、语音存储等多个领域。
16 kbps G.728低时延码激励线性预测。
G.728是低比特线性预测合成分析编码器(G.729和G.723.1)和后向ADPCM编码器的混合体。
G.728是LD-CELP编码器,它一次只处理5个样点。
对于低速率(56~128 kbps)的综合业务数字网(ISDN)可视电话,G.728是一种建议采用的语音编码器。
由于其后向自适应特性,因此G.728是一种低时延编码器,但它比其它的编码器都复杂,这是因为在编码器中必须重复做50阶LPC分析。
G.728还采用了自适应后置滤波器来提高其性能。
G.729类型:Audio制定者:ITU-T所需频宽:8Kbps特性:在良好的信道条件下要达到长话质量,在有随机比特误码、发生帧丢失和多次转接等情况下要有很好的稳健性等。
这种语音压缩算法可以应用在很广泛的领域中,包括IP电话、无线通信、数字卫星系统和数字专用线路。
G.729算法采用“共轭结构代数码本激励线性预测编码方案”(CS-ACELP)算法。