视频信号标准
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
概括说,就是探讨一下什么是4:4:4
在数字技术中,有两个最为重要的标准:其一是数字信号的扫描和处理标准;其二是数字信号的接口标准。
数字信号的扫描和处理涉及到两个重要概念:压缩比和采样比。
采样比是指由模拟信号向数字信号转化的过程中,对于信号中的亮度和色度部分的采样比例。
摄像机高性能的实现是依靠它内部的数字分量信号系统来完成的。
每个色彩分量分别形成分离的比特数据流。
为了将这些分量信号数字化,国际通信组织(ITU)制订了一个新的世界标准,叫做BT.601-4。
它提供了每个采样数据的比特数选择和彩色格式选择,但要求所有的扫描系统都使用相同的采样率。
解释一下:数字“4”表示采样率为基准频率13.5MHz;数字“2”表示采样率为基准频率的一半;数字“1”表示采样率为基准频率的1/4;数字“0”表示该分量实行的是间隔采样。
较低的采样率比用于减少色彩分量的带宽,所以,4:4:4意味着所有的分量均采用相同的采样频率13.5MHz,即没有压缩的、最高质量的亮度和色度。
上述都是针对数字分量信号的,即YCrCb或者YUV信号。
图解一下:
扫描线1
像素1 像素2 像素3 像素4………像素n
扫描线2
扫描线n 4:2:2格式采样原理
在上图格式中,每条扫描线的每个像素均采亮度信号(Y),而色度信号(Cr和Cb)则是每隔一个像素采一次。
话说到这里,我们得认识一下一个概念:分量视频信号和复合视频信号。
(这是DVD的,借用啦)
摄像机备有三个分别用来处理三原色信号的信号通道。
将三原色信号从摄像机中输出的最简单方式是分别用三根电缆线将它们输入显示器的RGB输入口。
这被称为分量信号系统。
三根电缆直接传输R、G、B信号的摄像机比较少见,据说汤姆逊公司生产的一款名为Viper FilmStream 的摄像机是这样传输信号的。
大多数摄像机的分量信号通常采用亮度信号(Y)和色度信号(Cr和Cb)的分离实现分量传输的。
比如YCrCb或者YUV格式。
用这种方法计算红绿蓝信号实现分量传输的主要用户是索尼Betacam摄录系统。
但是问题也是显而易见的:使用三根电缆传输信号,必然给信号转换、记录和显示带来了很多麻烦,尤其是多机操作的时候。
由此,大多数系统通过一个复合信号编码器,将三原色合并成一条包含明度、色度以及同步信息的单一信号。
我们称之为复合信号(Composite)。
为此,在一些摄像机中还设有复合编码器(Composite encoding)。
复合信号简化了信号的传输。
但是,它同时带来了信号质量上的损失。
这些损失表现在:清晰度降低、色彩变脏和可视的干扰形状出现等。
尽管如此,复合信号仍是目前最为普遍的一种信号形式。
广泛使用在所有的广播系统及家庭摄录系统中。
下图为4:1:1格式的采样图样。
扫描线1
像素1 像素2 像素3 像素4………像素n
扫描线2
扫描线n 4:1:1格式采样原理
上图显示,亮度信号Y每个像素采一次样,而色度信号是每隔4个像素采一次样。
使用该采样比的录像格式有:NTSC制的DV和DVCAM格式、NTSC和PAL制的DVCPRO25格式。
我们再看下图4:2:0采样比:
扫描线1
n
像素1 像素2 像素3 像素4………像素
扫描线2
扫描线n 4:2:0格式采样原理
我们可以看出,这个格式的采样规律是:每个像素都采亮度Y,色度信号是每隔一个像素采样一次。
但是,与4:1:1不同的是,它的两个色度分量是隔行采样的。
使用该采样比的录像格式有:PAL制的DV和DVCOM。
这下我们知道了,4:4:4意味着高画质、全采样。
但是,数字分量信号需要很高的数据处理速度,而视频压缩技术是目前保证数据传输速率的主要方法。
可以肯定地说,无压缩的永远是最好的。
压缩比:是指压缩前后信号数据质量的比值。
常用的压缩技术分别是JPEG、MPEG-1、MPEG-2。
需要说明的是,JPEG技术最初是用于数字化的静止图片,但现在也用于视频领域;MPEG-1被设计用于光盘驱动器;MPEG-2则是广播电视领域的压缩标准。
采样比是视频信号的第一道关,其最高标准应该是4:4:4的全采样。
压缩技术是在采样基础上对视频信号量的又一次选择,是第二道关,无压缩当然意味着该采样比下最好的信号质量。
没有实行压缩的数字录像格式有:
1、D-1(4:2:2)格式是世界上第一种标准化的、专业的数字录像格式,是由索尼公司于1986年推出的。
它记录的是非压缩的、分量的数字视频信号,采样比为4:2:2,采用8比特的数字编码,
2、D-2(4Fsc)格式信号采样频率为色彩副载波信号的4倍,是美国安培公司推出的。
3、D-3(4Fsc)格式NHK于1989年推出。
被广泛应用于世界很多广播电视公司中,它具备长工作时间和多功能性。
4、D-5(4:2:2)格式松下公司1994年推出。
据说没有D-4格式是因为在日语中D-4的发音与死谐音。
O(∩_∩)o…
使用压缩技术的记录格式有:
1、数字Betacam(4:2:2)格式
2、Digital-S(D-9)格式
3、Betacam SX(4:2:2)格式
部分视频名词解释(以下资料来源于网络)
.Digital Video 数字视频
数字视频就是先用摄像机之类的视频捕捉设备,将外界影像的颜色和亮度信息转变为电信号,再记录到储存介质(如录像带)。
播放时,视频信号被转变为帧信息,并以每秒约3 0幅的速度投影到显示器上,使人类的眼睛认为它是连续不间断地运动着的。
电影播放的帧率大约是每秒24帧。
如果用示波器(一种测试工具)来观看,未投影的模拟电信号看起来就像脑电波的扫描图像,由一些连续锯齿状的山峰和山谷组成。
为了存储视觉信息,模拟视频信号的山峰和山谷必须通过数字/模拟(D /A)转换器来转变为数字的“0”或“1”。
这个转变过程就是我们所说的视频捕捉(或采集过程)。
如果要在电视机上观看数字视频,则需要一个从数字到模拟的转换器将二进制信息解码成模拟信号,才能进行播放。
.Codec 编码解码器
编码解码器主要作用是对视频信号进行压缩和解压缩。
计算机工业定义通过24位测量系统的真彩色,这就定义了近百万种颜色,接近人类视觉的极限。
现在,最基本的V GA显示器就有640*480像素。
这意味着如果视频需要以每秒30帧的速度播放,则每秒要传输高达27MB的信息,1GB容量的硬盘仅能存储约37 秒的视频信息。
因而必须
对信息进行压缩处理。
通过抛弃一些数字信息或容易被我们的眼睛和大脑忽略的图像信息的方法,使视频的信息量减小。
这个对视频压缩解压的软件或硬件就是编码解码器。
编码解码器的压缩率从一般的2 :1-100:1不等,使处理大量的视频数据成为可能。
.动静态图像压缩
静态图像压缩技术主要是对空间信息进行压缩,而对动态图像来说,除对空间信息进行压缩外,还要对时间信息进行压缩。
目前已形成三种压缩标准:
1.JPEG(Joint Photographic Experts Group)标准:
静态图像压缩。
具有较高压缩比的图形文件(一张1000KB的BMP文件压缩成JPEG 格式后可能只有2 0-30KB),在压缩过程中的失真程度很小。
目前使用范围广泛(特别是Internet网页中)。
这种有损压缩在牺牲较少细节的情况下用典型的4:1到10:1的压缩比来存档静态图像。
动态JPEG(M-JPEG)可顺序地对视频的每一帧迸行压缩,就像每一帧都是独立的图像一样。
动态J PEG能产生高质量、全屏、全运动的视频,但是,它需要依赖附加的硬件。
2.H.261标准:主要适用于视频电话和视频电视会议。
3.MPEG(Motion Picture Experts Group,全球影象/声音/系统压缩标准)标准:包括MPEG视频、MPEG音频和MPEG系统(视音频同步)三个部分。
MPEG压缩标准是针对运动图像而设计的、基本方法是——在单位时间内采集并保存第一帧信息,然后就只存储其余帧相对第一帧发生变化的部分,以达到压缩的目的。
MPEG压缩标准可实现帧之间的压缩,其平均压缩比可达50:1,压缩率比较高,且又有统一的格式,兼容性好。
在多媒体数据压缩标准中,较多采用MPEG系列标准,包括MPEG-1、2、4等。
MPEG-1用于传输1.5Mbps数据传输率的数字存储媒体运动图像及其伴音的编码,经过MPEG-1标准压缩后,视频数据压缩率为1/100-1/2 00,音频压缩率为1/6.5。
MPEG-1提供每秒30帧352*240分辨率的图像,当使用合适的压缩技术时,具有接近家用视频制式(VHS)录像带的质量。
MPEG-1允许超过70分钟的高质量的视频和音
频存储在一张CD-ROM盘上。
VCD采用的就是MPEG-1的标准,该标准是一个面向家庭电视质量级的视频、音频压缩标准。
MPEG-2主要针对高清晰度电视(HDTV)的需要,传输速率为10Mbps,与MPEG-1兼容,适用于1.5-60Mbps甚至更高的编码范围。
MPEG-2有每秒30帧704*480的分辨率,是MPEG-1播放速度的四倍。
它适用于高要求的广播和娱乐应用程序,如:DSS 卫星广播和DVD,MPEG-2是家用视频制式(VHS)录像带分辨率的两倍。
MPEG-4标准是超低码率运动图像和语言的压缩标准用于传输速率低于64Mbps的实时图像传输,它不仅可覆盖低频带,也向高频带发展。
较之前两个标准而言,M PEG 一4为多媒体数据压缩提供了—个更为广阔的平台。
它更多定义的是一种格式、一种架构,而不是具体的算法。
它可以将各种各样的多媒体技术充分用进来,包括压缩本身的一些工具、算法,也包括图像合成、语音合成等技术。
.DAC
即数/模转装换器,一种将数字信号转换成模拟信号的装置。
DAC的位数越高,信号失真就越小。
图像也更清晰稳定。
.AVI
AVI是将语音和影像同步组合在一起的文件格式。
它对视频文件采用了一种有损压缩方式,但压缩比较高,因此尽管面面质量不是太好,但其应用范围仍然非常广泛。
A VI 支持256色和RLE压缩。
AVI信息主要应用在多媒体光盘上,用来保存电视、电影等各种影像信息。
.RGB
对一种颜色进行编码的方法统称为“颜色空间”或“色域”。
用最简单的话说,世界上任何一种颜色的“颜色空间”都可定义成一个固定的数字或变量。
RGB(红、绿、蓝)只是众多颜色空间的一种。
采用这种编码方法,每种颜色都可用三个变量来表示—红色绿色以及蓝色的强度。
记录及显示彩色图像时,R GB是最常见的一种方案。
但是,它缺乏与早期黑白显示系统的良好兼容性。
因此,件多电子电器厂商普遍采用的做法是,将
RGB转换成YUV 颜色空同,以维持兼容,再根据需要换回RGB格式,以便在电脑显示器上显示彩色图形。
.YUV
YUV(亦称YCrCb)是被欧洲电视系统所采用的一种颜色编码方法(属于PAL)。
YUV主要用于优化彩色视频信号的传输,使其向后兼容老式黑白电视。
与R GB视频信号传输相比,它最大的优点在于只需占用极少的带宽(RGB要求三个独立的视频信号同时传输)。
其中“Y”表示明亮度(Lumina nce或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。
“亮度”是通过R GB输入信号来创建的,方法是将RGB信号的特定部分叠加到一起。
“色度”则定义了颜色的两个方面—色调与饱和度,分别用Cr和CB来表示。
其中,C r反映了GB输入信号红色部分与RGB信号亮度值之间的差异。
而CB反映的是RGB输入信号蓝色部分与RGB信号亮度值之同的差异。
.复合视频和S-Video
NTSC和PAL彩色视频信号是这样构成的--首先有一个基本的黑白视频信号,然后在每个水平同步脉冲之后,加入一个颜色脉冲和一个亮度信号。
因为彩色信号是由多种数据“叠加”起来的,故称之为“复合视频”。
S -Video则是一种信号质量更高的视频接口,它取消了信号叠加的方法,可有效避免一些无谓的质量损失。
它的功能是将RGB三原色和亮度进行分离处理。
.NTSC、PAL和SECAM
基带视频是一种简单的模拟信号,由视频模拟数据和视频同步数据构成,用于接收端正确地显示图像。
信号的细节取决于应用的视频标准或者“制式”--NTSC(美国全国电视标准委员会,National Television Standards Committee)、PAL(逐行倒相,Phase Alternate Line)以及SECAM(顺序传送与存储彩色电视系统,法国采用的一种电视制式,SEquential Couleur Avec Memoire)。
在PC领域,由于使用的制式不同,存在不兼容的情况。
就拿分辨率来说,有的制式每帧有625线(50Hz),有的则每帧只有525线(60 Hz)。
后者是北美和日本采用的标准,统称为NTSC。
通常,一个视频信号是由一个视频源生成的,比如摄像机、VCR 或者电视调谐器等。
为传输图像,视频源首先要生成—个垂直同步信号(V SYNC)。
这个信号会重设接收端设备(PC显示器),保征新图像从屏幕的顶部开始显示。
发出VSYNC信号之后,视频源接着扫描图像的第一行。
完成后,视频源又生成一个水平同步信号,重设接收端,以便从屏幕左侧开始显示下一行。
并针对图像的每一行,都要发出一条扫描线,以及一个水平同步脉冲信号。
另外,NTSC标准还规定视频源每秒钟需要发送30幅完整的图像(帧)。
假如不作其它处理,闪烁现象会非常严重。
为解决这个问题,每帧又被均分为两部分,每部分2 62.5行。
一部分全是奇数行,另一部分则全是偶数行。
显示的时候,先扫描奇数行,再扫描偶数行,就可以有效地改善图像显示的稳定性,减少闪烁。
目前世界上彩色电视主要有三种制式,即N TSC、PAL和SECAM制式,三种制式目前尚无法统一。
我国采用的是PAL-D制式。
.Ultrascale
Ultra6cale是Rockwell(洛克威尔)采用的一种扫描转换技术。
可对垂直和水平方向的显示进行任意缩放。
在电视这样的隔行扫描设备上显示逐行视频时,整个过程本身就己非常麻烦。
而采用UltraScale技木,甚至还能像在电脑显示器上那祥,迸行类似的纵横方向自由伸缩。