视频常用名词解释

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

视频常用名词解释
Digital Video数字视频
数字视频就是先用摄像机之类的视频捕捉设备,将外界影像的颜色和亮度信息转变为电信号,再记录到储存介质(如录像带)。

播放时,视频信号被转变为帧信息,并以每秒约30幅的速度投影到显示器上,使人类的眼睛认为它是连续不间断地运动着的。

电影播放的帧率大约是每秒24帧。

如果用示波器(一种测试工具)来观看,未投影的模拟电信号看起来就像脑电波的扫描图像,由一些连续锯齿状的山峰和山谷组成。

为了存储视觉信息,模拟视频信号的山峰和山谷必须通过数字/模拟(D/A)转换器来转变为数字的“0”或“1”。

这个转变过程就是我们所说的视频捕捉(或采集过程)。

如果要在电视机上观看数字视频,则需要一个从数字到模拟的转换器将二进制信息解码成模拟信号,才能进行播放。

Codec编码解码器
编码解码器的主要作用是对视频信号进行压缩和解压缩。

计算机工业定义通过24位测量系统的真彩色,这就定义了近百万种颜色,接近人类视觉的极限。

现在,最基本的VGA 显示器就有640*480像素。

这意味着如果视频需要以每秒30帧的速度播放,则每秒要传输高达27MB的信息,1GB容量的硬盘仅能存储约37秒的视频信息。

因而必须对信息进行压缩处理。

通过抛弃一些数字信息或容易被我们的眼睛和大脑忽略的图像信息的方法,使视频的信息量减小。

这个对视频压缩解压的软件或硬件就是编码解码器。

编码解码器的压缩率从一般的2:1-100:1不等,使处理大量的视频数据成为可能。

动静态图像压缩
静态图像压缩技术主要是对空间信息进行压缩,而对动态图像来说,除对空间信息进行压缩外,还要对时间信息进行压缩。

目前已形成三种压缩标准:
1.JPEG(Joint Photographic Experts Group)标准:
用于连续色凋、多级灰度、彩色/单色静态图像压缩。

具有较高压缩比的图形文件(一张1000KB的BMP文件压缩成JPEG格式后可能只有20-30KB),在压缩过程中的失真程度很小。

目前使用范围广泛(特别是 Internet网页中)。

这种有损压缩在牺牲较少细节的情况下用典型的4:1到10:1的压缩比来存档静态图像。

动态JPEG(M-JPEG)可顺序地对视频的每一帧迸行压缩,就像每一帧都是独立的图像一样。

动态JPEG能产生高质量、全屏、全运动的视频,但是,它需要依赖附加的硬件。

2.H.261标准:主要适用于视频电话和视频电视会议。

3.MPEG(Motion Picture Experts Group,全球影象/声音/系统压缩标准)标准:包括MPEG视频、MPEG音频和MPEG系统(视音频同步)三个部分。

MPEG压缩标准是针对运动图像而设计的、基本方法是——在单位时间内采集并保存第一帧信息,然后就只存储其余帧相对第一帧发生变化的部分,以达到压缩的目的。

MPEG压缩标准可实现帧之间的压缩,其平均压缩比可达50:1,压缩率比较高,且又有统一的格式,兼容性好。

在多媒体数据压缩标准中,较多采用MPEG系列标准,包括MPEG-1、2、4等。

MPEG-1用于传输1.5Mbps数据传输率的数字存储媒体运动图像及其伴音的编码,经过MPEG-1标准压缩后,视频数据压缩率为1/100-1/200,音频压缩率为1/6.5。

MPEG-1提供每秒30帧352*240分辨率的图像,当使用合适的压缩技术时,具有接近家用视频制式
(VHS)录像带的质量。

MPEG-1允许超过70分钟的高质量的视频和音频存储在一张CD-ROM盘上。

VCD采用的就是MPEG-1的标准,该标准是一个面向家庭电视质量级的视频、音频压缩标准。

MPEG-2主要针对高清晰度电视(HDTV)的需要,传输速率为10Mbps,与MPEG-1兼容,适用于1.5-60Mbps甚至更高的编码范围。

MPEG-2有每秒30帧704*480的分辨率,是MPEG-1播放速度的四倍。

它适用于高要求的广播和娱乐应用程序,如: DSS卫星广播和DVD,MPEG-2是家用视频制式(VHS)录像带分辨率的两倍。

MPEG-4标准是超低码率运动图像和语言的压缩标准用于传输速率低于64Mbps的实时图像传输,它不仅可覆盖低频带,也向高频带发展。

较之前两个标准而言,MPEG-4为多媒体数据压缩提供了—个更为广阔的平台。

它更多定义的是一种格式、一种架构,而不是具体的算法。

它可以将各种各样的多媒体技术充分用进来,包括压缩本身的一些工具、算法,也包括图像合成、语音合成等技术。

DAC
即数/模转装换器,一种将数字信号转换成模拟信号的装置。

DAC的位数越高,信号失真就越小。

图像也更清晰稳定。

AVI
AVI是将语音和影像同步组合在一起的文件格式。

它对视频文件采用了一种有损压缩方式,但压缩比较高,因此尽管面面质量不是太好,但其应用范围仍然非常广泛。

AVI支持256色和RLE压缩。

AVI信息主要应用在多媒体光盘上,用来保存电视、电影等各种影像信息。

RGB
对一种颜色进行编码的方法统称为“颜色空间”或“色域”。

用最简单的话说,世界上任何一种颜色的“颜色空间”都可定义成一个固定的数字或变量。

RGB(红、绿、蓝)只是众多颜色空间的一种。

采用这种编码方法,每种颜色都可用三个变量来表示—红色、绿色以及蓝色的强度。

记录及显示彩色图像时,RGB是最常见的一种方案。

但是,它缺乏与早期黑白显示系统的良好兼容性。

因此,件多电子电器厂商普遍采用的做法是,将RGB转换成YUV颜色空同,以维持兼容,再根据需要换回RGB格式,以便在电脑显示器上显示彩色图形。

YUV
YUV(亦称YCrCb)是被欧洲电视系统所采用的一种颜色编码方法(属于PAL)。

YUV 主要用于优化彩色视频信号的传输,使其向后兼容老式黑白电视。

与RGB视频信号传输相比,它最大的优点在于只需占用极少的带宽(RGB要求三个独立的视频信号同时传输)。

其中“Y”表示明亮度(Luminance或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。

“亮度”是通过RGB输入信号来创建的,方法是将RGB信号的特定部分叠加到一起。

“色度”则定义了颜色的两个方面—色调与饱和度,分别用Cr和CB来表示。

其中,Cr反映了
RGB输入信号红色部分与RGB信号亮度值之间的差异。

而CB反映的是RGB输入信号蓝色部分与RGB信号亮度值之同的差异。

复合视频和S-Video
NTSC和PAL彩色视频信号是这样构成的--首先有一个基本的黑白视频信号,然后在每个水平同步脉冲之后,加入一个颜色脉冲和一个亮度信号。

因为彩色信号是由多种数据“叠加”起来的,故称之为“复合视频”。

S-Video则是一种信号质量更高的视频接口,它取消了信号叠加的方法,可有效避免一些无谓的质量损失。

它的功能是将RGB三原色和亮度进行分离处理。

NTSC、PAL和SECAM
基带视频是一种简单的模拟信号,由视频模拟数据和视频同步数据构成,用于接收端正确地显示图像。

信号的细节取决于应用的视频标准或者“制式”--NTSC(美国全国电视标准委员会,National Television Standards Committee)、PAL(逐行倒相,Phase Alternate Line)以及SECAM(顺序传送与存储彩色电视系统,法国采用的一种电视制式,SEquential Couleur Avec Memoire)。

在PC领域,由于使用的制式不同,存在不兼容的情况。

就拿分辨率来说,有的制式每帧有625线(50Hz),有的则每帧只有525线(60Hz)。

后者是北美和日本采用的标准,统称为NTSC。

通常,一个视频信号是由一个视频源生成的,比如摄像机、VCR或者电视调谐器等。

为传输图像,视频源首先要生成—个垂直同步信号(VSYNC)。

这个信号会重设接收端设备(PC显示器),保征新图像从屏幕的顶部开始显示。

发出VSYNC信号之后,视频源接着扫描图像的第一行。

完成后,视频源又生成一个水平同步信号,重设接收端,以便从屏幕左侧开始显示下一行。

并针对图像的每一行,都要发出一条扫描线,以及一个水平同步脉冲信号。

另外,NTSC标准还规定视频源每秒钟需要发送30幅完整的图像(帧)。

假如不作其它处理,闪烁现象会非常严重。

为解决这个问题,每帧又被均分为两部分,每部分262.5行。

一部分全是奇数行,另一部分则全是偶数行。

显示的时候,先扫描奇数行,再扫描偶数行,就可以有效地改善图像显示的稳定性,减少闪烁。

目前世界上彩色电视主要有三种制式,即NTSC、PAL和SECAM制式,三种制式目前尚无法统一。

我国采用的是PAL-D制式。

Ultrascale
Ultrascale是Rockwell(洛克威尔)采用的一种扫描转换技术。

可对垂直和水平方向的显示进行任意缩放。

在电视这样的隔行扫描设备上显示逐行视频时,整个过程本身就己非常麻烦。

而采用 Ultrascale技木,甚至还能像在电脑显示器上那祥,迸行类似的纵横方向自由伸缩。

数字化影视基础
以下是对影视数字化以及桌面电影制作的一些基本概念的概括和介绍。

数字化(Digitizing)
模拟视频信号(以模拟摄象机拍摄的信号或者由胶片转换成的模拟视频信号)必须被转换成数字信息,也就是被数字化,才能够在电脑中对其进行操作。

视频捕捉卡(The Video Card)
视频捕捉卡需要占用电脑的一个扩充槽,视频信号通过它由放像设备被捕捉入电脑。

一般来说,视频捕捉卡都附带一个扩展坞,上面提供用以连接放像设备的各种插口。

数字化的视频信号所占硬盘空间都非常大,所以很多捕捉卡在采集视频信号的同时对信号进行压缩,以避免在CPU、数据桥(连接捕捉卡和电脑)以及写入硬盘时可能出现的瓶颈。

所谓的瓶颈,就是指当以上之中任何一个环节来不及处理输入的信号,最直接的后果一般就是部分视频内容(帧)的丢失。

当视频流被捕捉入电脑时,它将会被存储为一个视频文件。

你可以通过你的视频捕捉软件指定一个帧速度,比如15帧,视频捕捉软件就会通过捕捉卡以每秒种1 5幅静止画面的速度将输入的视频信号保存到缓存中,然后将视频文件写入硬盘。

最容易出现瓶颈的地方是硬盘。

所以,安装一个持续吞吐量尽可能高的硬盘非常重要,要知道,硬盘要连续处理的数据甚至比你想象的还要大。

那些制作广播级影视作品的人一般都使用磁盘阵列- -通过几个硬盘的协作获得最大的吞吐量。

桌面编辑(On the Desktop)
一旦视频信号被捕捉成为视频文件,你就可以使用许多非线性编辑系统(non-linear editing systems )比如Premiere对它们进行剪辑。

对于面向电影或者广播级电视的制作,最常被使用的系统有AVID或者Media 100,这些顶级产品都是软件和硬件结合的专业系统。

在非线性编辑系统上工作的优势在于,视频片段可以被任意的拖放,被随意的剪切、微调。

它们可以在任意多的通道中被无数次的使用而不用担心信号的衰减。

最后的成品可以通过视频捕捉卡输出到普通视频录制设备上。

导演或剪辑师也可以随心所欲的在一台家用电脑上进行剪辑并生成脱机剪辑表( EDL-Edit Decision List)。

脱机剪辑表可以在专业剪辑系统中控制自动完成剪辑工作这样你就可以用很少的费用完成高质量的最终版本。

一旦被数字化以后,视频文件也可以用AfterEffects、DeBabelizer或者Photoshop 这些强大后期处理软件进行处理。

你可以对图象进行变形、修正错误、改变图象颜色、增加特效、加入文字等等。

同样,也可以使用诸如S oundEdit16和ProTools这样的工具通过简单的拖放处理声音。

桌面编辑的简便使得一个人就可以完成原来需要一整个制作队伍才能完成的工作。

同时也意味着不用去上那些专业的电影学院,不用那些昂贵的广播级设备及专业制作棚也可以完成广播级质量的作品。

这种可能性孕育了这个时代的数字导演们。

因为数字化视频仍然在发展和完善中,它仍然存在很多让人头痛的地方。

但是正因为如此,对于那些在自己的电脑上进行电影创作,同时又积极投身于电影媒体的重新定义的人们来说,没有条条框框的限制也成为他们的优势。

这可以说是自从电影诞生以来最伟大的一次革命,而你,想在这之中扮演什么角色呢?
如果需要了解本文中用到的一些专业词汇,请参考数字视频小词典。

数字视频小词典
存取时间(Access Time)
磁盘指针(读写设备)移动到硬盘上正确位置所花的时间,也指硬盘旋转到正确位置所花的时间。

这是用来衡量硬盘性能的重要标准。

Alpha通道(Alpha Channel)
在电脑图形中,每个象素都包含三个色彩信息通道红、绿、蓝,在24位的图形中,每个通道有包含了8位色彩深度。

如果图形卡具有32位总线,附加的8 位信号就被用来保存不可见的透明度信号以方便处理用,这就是Alpha通道。

白色的alpha象素用以定义不透明的彩色象素,而黑色的alph a象素用以定义透明象素,黑白之间的灰阶用来定义半透明象素。

非自然信号(Artifact)
简单的说,就是指在画面中随机出现的游离象素。

可能产生非自然信号的原因很多,包括过高的压缩比。

屏幕长宽比(Aspect Ratio)
在电影和电视中,屏幕长宽比指的是屏幕的宽度和屏幕的高度的比例。

大多数桌面电脑、普通电视系统的长宽比都是4:3。

AVI
Audio/Video Interleave(音频/视频隔行扫描)的缩写。

AVI是Windows下的指定视频文件格式,也是PC系统中使用最为广泛的视频文件格式,同QUICK TIME和MPEG并称为电脑的三大主流视频技术。

简单说,AVI以隔行扫描的视频和音频不断交错的方式工作。

分量视频信号(Component Video)
将画面按三个颜色通道(RG分成红、绿和蓝(附加亮度信号)三个单独信号通道。

产生的画面质量较高,一般在广播级视频设备中被采用。

合成视频信号(Composite Video)
将彩色信号、亮度信号和同步信号混合在一个信号通道内,在家用视频设备中被大量采用。

压缩(Compression)
压缩是制作数字电影的一个重要感念。

视频和音频在数字化过程中都可以通过电脑进行压缩。

当声音和画面被压缩后,他们可以更高效的得到C PU的处理并减少视频及音频文件占用的硬盘空间。

压缩也是视频在网络上传播的关键,必须将文件大小压缩至带宽允许的程度才可以被用户下载。

压缩比(Compression Ratio)
图象文件原始大小和经压缩后图象文件大小的比例。

信号编解码器(Codec) 压缩/解压缩的运算法则。

也就是压缩与解压缩所使用的压缩标准(例如JPEG或者Cinepak)。

一般的编码包括将模拟视频信号转换到压缩视频文件(比如M PEG)或将模拟声音信号转变为数字化声音(比如RealAudio)。

信号丢失(Dropout)
由于磁带金属磁粉掉落引起的问题,一般是因为存放时间过长或误操作引起的。

信号丢失会造成画面噪音、拖影以及不同步等问题。

脱机编辑表(EDL)
Edit Decision List(剪辑参照表)的缩写。

由电脑生成的记录所有进点和出点以及效果的列表。

脱机编辑表可以在廉价的非线性工作站甚至在家用电脑上用Premiere这样的软件创建,然后在那些高级的线性剪辑系统上控制最终的剪辑。

磁盘阵列(Fast and Wide Drive Array)
一种外接(也有内接)的存储设备,由几个硬盘连接起来同时工作,由此提高吞吐量及存取时间。

这是在电脑上剪辑全分辨率全帧速的视频的最可靠的方法( 当然不是最便宜的)。

帧速(FPS)
一秒种内的帧数量。

NTSC制为30FPS,PAL制为25FPS。

关键帧(Key Frame)
在一些压缩方案中,有些帧被指定为关键帧。

既然两帧之间的画面的大部分内容往往没有太大区别,就可以将后续帧和关键帧进行比较,而保存真正发生变化的部分。

这样可以节省空间。

纵向时间码(LTC)
Longitudinal Time Code(纵向时间码)的缩写。

SMPTE时间码的一种,也被称为相对时间码,记录在磁带的磁道上。

和垂直间隔时间码(VITC)相对。

网络用户总线(NuBus)
网络用户总线是Macintosh电脑内部扩展槽的标准接口(专指视频及音频扩展卡)。

新的Mac电脑均开始使用Intel的超级PCI标准,所以你只能在老的M ac机种上看到网络用户总线的插槽。

如果你计划购买视频或音频扩展卡,并有一台老式的Mac电脑,请先确认你的电脑拥有什么样的插槽。

网络用户总线是由德州仪器公司( Texas Instruments)设计的。

PCI
外接设备连接总线(Peripheral Component Interconnect)的缩写,PCI是奔腾电脑系统所使用的相当优秀的内置扩展接口(现在Apple公司的PowerPC也使用了这一总线)。

QuickTime
由Apple电脑公司开发,QuickTime已渐渐变成Mac电脑和PC电脑上通用的标准视频技术。

QuickTime回放的文件都由.mov的后缀表示。

SCSI
小型计算机系统接口(Small Computer System Interface)的缩写。

SCSI允许你通过该接口以链的方式在电脑上连接多个扩展设备。

SMPTE时间码(SMPTE Time Code)
电影与电视工程师协会(Society of Motion Picture and Television Engineers)的缩写,也称为标准时间码。

这一标准赋予视频的每一帧一个数值,使其在剪辑时允许作为进点和出点使用。

吞吐量(Throughput)
标称硬盘持续传送数据的速度。

时间码(Time Code)
参见SMPTE时间码。

矢量显示器(Vectorscope)
也称示波器,以图形方式显示视频画面的色调及饱和度水平的仪器,可以用来调整色彩匹配。

视窗视频格式(Video for Windows)
视窗视频格式(VFW)是Windows95操作系统内附的视频技术。

其文件都由.avi后缀表示。

虚拟内存(Virtual Memory)
一种内存管理系统,用来作为内存和硬盘之间的临时交换区域。

垂直间隔时间码(VITC)
垂直间隔时间码(Vertical Interval Time Code)的缩写,SMPTE时间码的一种。

记录于每两帧之间,因此当设备停留在某一帧的时候就可以被读出。

WAV
WAV时Windows操作系统的标准音频文件格式。

WAV文件由后缀.wav表示。

相关文档
最新文档