常见视频编码格式与RGB、YUV视频存储格式
yuv格式计算
yuv格式计算
YUV格式是一种用于表示图像和视频的颜色空间,由Y、U、V三个部分组成,其中Y表示亮度,U和V表示颜色的色度。
在图像处理和视频编码领域,YUV格式被广泛应用,因为它相较于RGB格式可以更有效地存储和传输颜色信息。
YUV格式的计算方法取决于图像的采样方式和分辨率。
以下是以YUV 4:2:0采样格式为例的计算方法:
1. 首先,将RGB三原色转换为YUV格式。
对于每个像素的RGB值(R,G,B),按照以下公式计算Y、U、V值:
Y = 0.299 * R + 0.587 * G + 0.114 * B
U = -0.147 * R - 0.144 * G + 0.274 * B
V = 0.439 * R - 0.368 * G + 0.131 * B
2. 接下来,根据YUV采样格式进行色度抽样。
在YUV 4:2:0格式中,每个Y像素对应两个U和V像素。
因此,需要将计算得到的U和V 值进行色度抽样,得到对应的U'和V'值。
色度抽样的方法有很多种,如线性插值、二次插值等。
3. 将得到的Y、U'、V'值组合成一个YUV格式的数据块。
通常,YUV 数据块的存储顺序是YUV、YUV、...依次排列。
4. 最后,按照图像的分辨率和其他参数,将YUV数据块进行分组和编码。
常见的编码格式有MPEG-4、H.264等。
需要注意的是,不同的采样格式、分辨率和其他参数可能导致计算方法略有不同。
在实际应用中,根据具体需求选择合适的计算方法和编码格式。
RGB、YUY2、YUYV、YVYU、UYVY、AYUV格式详解
RGB、YUY2、YUYV、YVYU、UYVY、AYUV格式详解小知识:RGB与YUV--摘自《DirectShow实务精选》作者:陆其明计算机彩色显示器显示色彩的原理与彩色电视机一样,都是采用R(Red)、G(Green)、B(Blue)相加混色的原理:通过发射出三种不同强度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。
这种色彩的表示方法称为RGB色彩空间表示(它也是多媒体计算机技术中用得最多的一种色彩空间表示方法)。
根据三基色原理,任意一种色光F都可以用不同分量的R、G、B三色相加混合而成。
F=r[R]+g[G]+b[B]其中,r、g、b分别为三基色参与混合的系数。
当三基色分量都为0(最弱)时混合为黑色光;而当三基色分量都为k(最强)时混合为白色光。
调整r、g、b三个系数的值,可以混合出介于黑色光和白色光之间的各种各样的色光。
那么YUV又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。
这种色彩的表示方法就是所谓的YUV色彩空间表示。
采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。
如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。
彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。
YUV与RGB相互转换的公式如下(RGB取值范围均为0-255):Y=0.299R+0.587G+0.114BU=-0.147R-0.289G+0.436BV=0.615R-0.515G-0.100BR=Y+1.14VG=Y-0.39U-0.58VB=Y+2.03U在DirectShow中,常见的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32等;常见的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、YUV411、YUV420等。
YUV、RGB、RAW DATA、JPEG 区别
Sensor信号输出YUV、RGB、RAW DATA、JPEG区别简单来说:YUV:luma(Y)+chroma(UV)格式,一般情况下sensor支持YUV422格式,即数据格式是按Y-U-Y-V次序输出的:RGB:传统的红绿蓝格式,比如RGB565,其16-bit数据格式为5-bit R+6-bit G+5-bit B。
G多一位,原因是人眼对绿色比较敏感;RAW RGB:sensor的每一像素对应一个彩色滤光片,滤光片按Bayer pattern分布。
将每一个像素的数据直接输出,即RAW RGB data;JPEG:有些sensor,特别是低分辨率的,其自带JPEG engine,可以直接输出压缩后的jpg格式的数据对于这几种输出格式,几个疑问:1、有些手机基带芯片只能支持2M以下的YUV sensor,3M以上只能使用JPEG sensor,这里说明YUV输出格式对基带芯片有一定的要求,那么到底YUV sensor对基带芯片有怎样的要求呢?2、如果直接输出RGB,对于LCD的显示是最方便的,那么为何大多数基带芯片都是要求输出为YUV格式的数据再进行处理呢?1.YUV一个像素占2B,如果像素太高在高时钟下基带芯片处理不过来,JPEG数据量就要小的多,所以不是YUV对基带芯片有要求而是基带芯片对输出数据速率有要求。
2.RGB565一般用在很低端的基带芯片上,直接往屏上刷。
YUV输出亮度信号没有任何损失,而色偏信号人眼并不是特别敏感,RGB565输出格式是R5G3G3B5会丢掉很多原始信息,所以YUV图像质量和稳定性要比RGB565好的多3.RAW数据每个像素就1B,数据量要少很多,一般5M以上sensor就只输出RAW 数据以保证比较快的输出速度,后端挂一个DSP来处理输出的数据。
--------------------------------------------------------------------------------RAW和JPEG的区别RAW格式文件基本上是一个没有经任何图像处理的源文件,它能原原本本地记录相机拍摄到的信息,没有因为图像处理(如锐化、增加色彩对比)和压缩而造成的信息丢失,但需要用特别的软件来打开这些文件。
了解显卡视频输出格式RGB与YUV的区别
了解显卡视频输出格式RGB与YUV的区别随着科技的不断进步和发展,电脑显卡在我们的日常生活中扮演着越来越重要的角色。
它不仅可以提供图像的处理和计算能力,还决定了我们在电脑上观看视频和玩游戏时的视觉效果。
然而,对于很多人来说,关于显卡视频输出格式RGB与YUV的区别并不是很清楚。
本文将解释这两种常见的视频输出格式之间的差异和应用场景。
一、RGBRGB是红绿蓝三种基本颜色的缩写,它是由红色(R)、绿色(G)和蓝色(B)三种原色组成的。
在RGB格式中,每个像素点都由这三种颜色的不同亮度和强度组合而成。
通过调节每一种颜色的比例和亮度,我们可以创建出丰富多彩的图像。
RGB格式的主要优点是色彩的准确性和稳定性。
由于每个像素点都由三种原色组成,RGB格式可以提供更精确的图像细节和更真实的颜色表现。
这使得它在图像处理、摄影和广告设计等领域得到广泛应用。
然而,RGB格式也存在一些局限性。
首先,它需要更大的数据量来表示每个像素点的颜色信息,这就导致了文件大小的增加。
其次,RGB格式并不适用于所有的视频显示设备,例如电视和视频投影仪等。
这是因为大多数视频显示设备使用的是YUV格式。
二、YUVYUV格式是一种类似RGB的视频编码方式,它由亮度(Y)和色度(U和V)两个分量组成。
亮度分量表示图像的明暗程度,而色度分量则表示图像的颜色信息。
在YUV格式中,图像的亮度和色度分量分别经过压缩和编码处理,以减小数据量。
与RGB相比,YUV格式具有更高的压缩率和更小的文件大小。
这使得在存储和传输大量视频数据时更加高效。
此外,YUV格式也适用于各种视频显示设备,因为它可以根据设备的需求进行颜色转换,并提供适当的色彩空间。
然而,由于YUV格式对颜色信息进行了压缩处理,它相对于RGB格式而言在图像细节和颜色准确性上略有损失。
尽管这种损失在肉眼观察下很难察觉,但在一些对颜色表现要求极高的场合,如电影制作和专业摄影等领域,RGB格式仍然被广泛使用。
YUV与RGB
RGB 格式是将色彩分成红绿蓝3个分量,没有红绿蓝时为黑色,红绿蓝3色都最亮时为白色。
常见的RGB格式有16 bit(高彩)和24bit(真彩),16 bit的RGB格式实际上还包含15 bit RGB和真16 bit RGB, 这两种格式都将红和蓝分成32等级,但是15bitRGB(也称为5-5-5 RGB)将绿色分成32等级,而16 bit RGB则将绿色分成64等级(所谓5-6-5 RGB),不过这两者占据的空间是相同的。
24 bit GRB(8-8-8 RGB)是将3个色道都分成256等级。
所有RGB24就是RGB888YUV和YCrCb(亮度/色度)格式,这两种格式非常相似,它是将色彩分成一个Y值(亮度)和两个U值和V值(定义颜色),这种格式实际上是利用了人眼的视觉特性,对亮度比较敏感,而对颜色相对较迟钝。
也由于这个原因,有些YUV格式采用了色度抽样,即U/V 值是针对一个象素组合来确定的,而不是一个单个象素,于是便出现了YUV9,YUV12等不同的格式,最普遍的是YUV12,常用于MPEG视频解码后的输出,每个象素都有自己的Y值,但是U/V值则包括了2x2象素组,或者说每个2x2象素组只有一个U/V值,相当于每个象素用了12 bit来编码,所以叫YUV12。
YUV9与YUV12类似,不同的是YUV9中的U/V值包含了4x4个象素组,因此在YUV9里面,每个象素由9 bit来编码。
关于RGB-YUV转换,这在视频编码里面是一个常见的预处理步骤。
对电脑产生的图形进行编码时,要特别小心YUV转换,因为色度抽样很容易导致图像中的颜色产生色渗透。
代码typedef struct YUVTRIPLE_FAST{BYTE V;BYTE U;BYTE Y;} YUVTRIPLE;inline RGBTRIPLE YUV2RGB(YUVTRIPLE yuv){int r, g, b;RGBTRIPLE rgb;r = (298*(yuv.Y-16) + 409*(yuv.V - 128) + 128) > > 8;g = (298*(yuv.Y-16) - 100*(yuv.U - 128) - 208*(yuv.V - 128) + 128)> > 8;b = (298*(yuv.Y-16) + 516*(yuv.U - 128) +128) > > 8;if(r > 255) r = 255;else if(r < 0) r = 0;if(g > 255) g = 255;else if(g < 0) g = 0;if(b > 255) b = 255;else if(b < 0) b = 0;rgb.rgbtRed = r;rgb.rgbtGreen = g;rgb.rgbtBlue = b;return rgb;}inline YUVTRIPLE RGB2YUV(RGBTRIPLE rgb){YUVTRIPLE yuv;yuv.Y = ((66*rgb.rgbtRed + 129*rgb.rgbtGreen + 25*rgb.rgbtBlue + 128) > > 8) + 16;yuv.U = ((-38*rgb.rgbtRed - 74*rgb.rgbtGreen + 112*rgb.rgbtBlue + 128) > > 8) + 128;yuv.V = ((112*rgb.rgbtRed - 94*rgb.rgbtGreen - 18*rgb.rgbtBlue + 128) > > 8) + 128;return yuv;}/china/MSDN/library/enterprisedevelopment/softwaredev/VideoRende8 BitYUV.mspx?mfr=trueorConvertYuvToRGB24Bstream(LPBYTE pY,LPBYTE pCb,LPBYTE pCr,LPBYTE hpOutput,int imWidth,int imHeight){//WTYPE *pY, *pCr, *pCb;LPBYTE cbuf;long x, y;short int r,g,b;cbuf = hpOutput;for (y=0; y <imHeight; y++ ){cbuf = hpOutput + ((imWidth*3)*(imHeight-y-1));for (x=0; x <imWidth/2; x++){YUV2RGB(pY[0],pCb[0],pCr[0],r,g,b);cbuf[0] = (unsigned char)b;//TRIM(b);// cbuf[1] = (unsigned char)g;//TRIM(g);// cbuf[2] = (unsigned char)r;//TRIM(r);// YUV2RGB(pY[1],pCb[0],pCr[0],r,g,b);cbuf[3] = (unsigned char)b;//TRIM(b);// cbuf[4] = (unsigned char)g;//TRIM(g);// cbuf[5] = (unsigned char)r;//TRIM(r);// cbuf += 6;pY += 2;pCr++;pCb++;}}}。
对YUV格式的详细描述,以及存储形式
对YUV格式的详细描述,以及存储形式YUV主要的采样格式主要的采样格式有YCbCr 4:2:0、YCbCr 4:2:2、YCbCr 4:1:1和 YCbCr 4:4:4。
其中YCbCr 4:1:1 比较常用,其含义为:每个点保存一个 8bit 的亮度值(也就是Y值), 每 2x2 个点保存一个 Cr 和Cb 值, 图像在肉眼中的感觉不会起太大的变化。
所以, 原来用 RGB(R,G,B 都是 8bit unsigned) 模型, 4 个点需要8x3=24 bites(如下图第一个图). 而现在仅需要 8+(8/4)+(8/4)=12bites, 平均每个点占12bites(如下图第二个图)。
这样就把图像的数据压缩了一半。
上边仅给出了理论上的示例,在实际数据存储中是有可能是不同的,下面给出几种具体的存储形式:(1)YUV 4:4:4YUV三个信道的抽样率相同,因此在生成的图像里,每个象素的三个分量信息完整(每个分量通常8比特),经过8比特量化之后,未经压缩的每个像素占用3个字节。
下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]存放的码流为: Y0 U0 V0 Y1 U1 V1 Y2 U2 V2 Y3 U3 V3(2) YUV 4:2:2每个色差信道的抽样率是亮度信道的一半,所以水平方向的色度抽样率只是4:4:4的一半。
对非压缩的8比特量化的图像来说,每个由两个水平方向相邻的像素组成的宏像素需要占用4字节内存。
下面的四个像素为: [Y0 U0 V0] [Y1 U1 V1] [Y2 U2 V2] [Y3 U3 V3]存放的码流为: Y0 U0 Y1 V1 Y2 U2 Y3 V3映射出像素点为:[Y0 U0 V1] [Y1 U0 V1] [Y2 U2 V3] [Y3 U2 V3](3) YUV 4:1:14:1:1的色度抽样,是在水平方向上对色度进行4:1抽样。
YUV、RGB、RAW DATA、JPEG 区别
Sensor信号输出YUV、RGB、RAW DATA、JPEG区别简单来说:YUV:luma(Y)+chroma(UV)格式,一般情况下sensor支持YUV422格式,即数据格式是按Y-U-Y-V次序输出的:RGB:传统的红绿蓝格式,比如RGB565,其16-bit数据格式为5-bit R+6-bit G+5-bit B。
G多一位,原因是人眼对绿色比较敏感;RAW RGB:sensor的每一像素对应一个彩色滤光片,滤光片按Bayer pattern分布。
将每一个像素的数据直接输出,即RAW RGB data;JPEG:有些sensor,特别是低分辨率的,其自带JPEG engine,可以直接输出压缩后的jpg格式的数据对于这几种输出格式,几个疑问:1、有些手机基带芯片只能支持2M以下的YUV sensor,3M以上只能使用JPEG sensor,这里说明YUV输出格式对基带芯片有一定的要求,那么到底YUV sensor对基带芯片有怎样的要求呢?2、如果直接输出RGB,对于LCD的显示是最方便的,那么为何大多数基带芯片都是要求输出为YUV格式的数据再进行处理呢?1.YUV一个像素占2B,如果像素太高在高时钟下基带芯片处理不过来,JPEG数据量就要小的多,所以不是YUV对基带芯片有要求而是基带芯片对输出数据速率有要求。
2.RGB565一般用在很低端的基带芯片上,直接往屏上刷。
YUV输出亮度信号没有任何损失,而色偏信号人眼并不是特别敏感,RGB565输出格式是R5G3G3B5会丢掉很多原始信息,所以YUV图像质量和稳定性要比RGB565好的多3.RAW数据每个像素就1B,数据量要少很多,一般5M以上sensor就只输出RAW 数据以保证比较快的输出速度,后端挂一个DSP来处理输出的数据。
--------------------------------------------------------------------------------RAW和JPEG的区别RAW格式文件基本上是一个没有经任何图像处理的源文件,它能原原本本地记录相机拍摄到的信息,没有因为图像处理(如锐化、增加色彩对比)和压缩而造成的信息丢失,但需要用特别的软件来打开这些文件。
S-VideoYUVYCbCrYPbPrRGBVGAWXGA分别的详细介绍
色差输出色差信号y,r-y,b-y信号一般通称为y, cr,cb; 习惯上y,cr,cb为数字(pcm)的色差信号,模拟的色差信号则称y,pr,pb,所以我们常在dvd player的内部看到y,cr,cb而在dvd player的外部看到色差输出标示为y,pr,pb或yuv;yuv则是在欧洲电视系统pal中的色差信号的通称,包含数字及模拟的色差信号都称 yuv,所以当您看到yuv时您就要联想到它是pal系统中的y,r-y,b-y信号,它可能是数字(pcm)的yuv,也可能是模拟的yuv电视信号都是YUV的。
: : 最初的电视信号是黑白的,后来有彩色的,: : 所以黑白的电视机只用接收Y信号。
: : 彩色的就接收了Y亮度信号以后,还要接收色度信号UV。
: : 另外在计算机上,你看得大多数播放器也都是解码成yuv显示的。
大多是YUY2格式的。
: : 如果你的显卡支持yuv的overlay模式的显示的话,那么就解码成相应的yuv格式显示。
: : 如果不行,再转成rgb显示S-VideoS-Video具体英文全称叫Separate Video,为了达到更好的视频效果,人们开始探求一种更快捷优秀、清晰度更高的视频传输方式,这就是当前如日中天的S-Video(也称二分量视频接口),Separate Video 的意义就是将Video 信号分开传送,也就是在AV接口的基础上将色度信号C和亮度信号Y进行分离,再分别以不同的通道进行传输,它出现并发展于上世纪90年代后期通常采用标准的4 芯(不含音效) 或者扩展的7 芯( 含音效)。
带S-Video接口的视频设备( 譬如模拟视频采集/ 编辑卡电视机和准专业级监视器电视卡/电视盒及视频投影设备等) 当前已经比较普遍,同AV 接口相比由于它不再进行Y/C混合传输,因此也就无需再进行亮色分离和解码工作,而且由于使用各自独立的传输通道在很大程度上避免了视频设备内信号串扰而产生的图像失真,极大提高了图像的清晰度,但S-Video 仍要将两路色差信号(Cr Cb)混合为一路色度信号C,进行传输然后再在显示设备内解码为Cb 和Cr 进行处理,这样多少仍会带来一定信号损失而产生失真(这种失真很小但在严格的广播级视频设备下进行测试时仍能发现) ,而且由于Cr Cb 的混合导致色度信号的带宽也有一定的限制,所以S -Video 虽然已经比较优秀但离完美还相去甚远,S-Video 虽不是最好的,但考虑到目前的市场状况和综合成本等其它因素,它还是应用最普遍的视频接口。
视频与图像RGBYUV格式详解
视频与图像RGBYUV格式详解部门: xxx时间: xxx整理范文,仅供参考,可下载自行编辑视频与图像RGB/YUV格式详解计算机彩色显示器显示色彩的原理与彩色电视机一样,都是采用R<Red)、G<Green)、B<Blue)相加混色的原理:通过发射出三种不同强度的电子束,使屏幕内侧覆盖的红、绿、蓝磷光材料发光而产生色彩。
这种色彩的表示方法称为RGB色彩空间表示<它也是多媒体计算机技术中用得最多的一种色彩空间表示方法)。
根据三基色原理,任意一种色光F都可以用不同分量的R、G、B 三色相加混合而成。
F = r [ R ] + g [G ] + b [ B ]其中,r、g、b分别为三基色参与混合的系数。
当三基色分量都为0<最弱)时混合为黑色光;而当三基色分量都为k<最强)时混合为白色光。
调整r、g、b三个系数的值,可以混合出介于黑色光和白色光之间的各种各样的色光。
b5E2RGbCAP那么YUV又从何而来呢?在现代彩色电视系统中,通常采用三管彩色摄像机或彩色CCD摄像机进行摄像,然后把摄得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y<即U)、B-Y<即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。
这种色彩的表示方法就是所谓的YUV色彩空间表示。
p1EanqFDPw 采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。
如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。
彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。
DXDiTa9E3d YUV与RGB相互转换的公式如下<RGB取值范围均为0-255):Y = 0.299R + 0.587G + 0.114BU = -0.147R - 0.289G + 0.436BV = 0.615R - 0.515G - 0.100BR = Y + 1.14VG = Y - 0.39U - 0.58VB = Y + 2.03U在DirectShow中,常见的RGB格式有RGB1、RGB4、RGB8、RGB565、RGB555、RGB24、RGB32、ARGB32等;常见的YUV格式有YUY2、YUYV、YVYU、UYVY、AYUV、Y41P、Y411、Y211、IF09、IYUV、YV12、YVU9、YUV411、YUV420等。
深入探索视频帧中的颜色空间——RGB和YUV
深⼊探索视频帧中的颜⾊空间——RGB和YUV接触前端⾳视频之后,需要掌握⼤量⾳视频和多媒体相关的基础知识。
在使⽤ FFmpeg + WASM 进⾏视频帧提取时,涉及到视频帧和颜⾊编码等相关概念。
本⽂将对视频帧中的颜⾊空间进⾏介绍。
视频帧对于视频,我们都知道是由⼀系列的画⾯在⼀个较短的时间内(通常是 1/24 或 1/30 秒)不停地下⼀个画⾯替换上⼀个画⾯形成连贯的画⾯变化。
这些画⾯称之为视频帧。
对于视频帧,在现代视频技术⾥⾯,通常都是⽤ RGB 颜⾊空间或者 YUV 颜⾊空间的像素矩阵来表⽰。
在 ffmpeg ⾥⾯,我们可以看到源码中定义了⼀系列像素格式,绝⼤部分都是 RGB 和 YUV 颜⾊空间类型的。
enum AVPixelFormat {// ... 省略部分不怎么重要的类型///< planar YUV 4:2:0, 12bpp, (1 Cr & Cb sample per 2x2 Y samples)AV_PIX_FMT_YUV420P,///< packed YUV 4:2:2, 16bpp, Y0 Cb Y1 CrAV_PIX_FMT_YUYV422,///< planar YUV 4:2:2, 16bpp, (1 Cr & Cb sample per 2x1 Y samples)AV_PIX_FMT_YUV422P,///< packed YUV 4:2:2, 16bpp, Cb Y0 Cr Y1AV_PIX_FMT_UYVY422,///< planar YUV 4:4:4, 24bpp, (1 Cr & Cb sample per 1x1 Y samples)AV_PIX_FMT_YUV444P,///< planar YUV 4:4:0 (1 Cr & Cb sample per 1x2 Y samples)AV_PIX_FMT_YUV440P,///< packed RGB 8:8:8, 24bpp, RGBRGB...AV_PIX_FMT_RGB24,///< packed RGB 8:8:8, 24bpp, BGRBGR...AV_PIX_FMT_BGR24,///< packed ARGB 8:8:8:8, 32bpp, ARGBARGB...AV_PIX_FMT_ARGB,///< packed RGBA 8:8:8:8, 32bpp, RGBARGBA...AV_PIX_FMT_RGBA,///< packed ABGR 8:8:8:8, 32bpp, ABGRABGR...AV_PIX_FMT_ABGR,///< packed BGRA 8:8:8:8, 32bpp, BGRABGRA...AV_PIX_FMT_BGRA,///< packed RGB 5:6:5, 16bpp, (msb) 5R 6G 5B(lsb), big-endianAV_PIX_FMT_RGB565BE,///< packed RGB 5:6:5, 16bpp, (msb) 5R 6G 5B(lsb), little-endianAV_PIX_FMT_RGB565LE,///< packed RGB 5:5:5, 16bpp, (msb)1X 5R 5G 5B(lsb), big-endian , X=unused/undefinedAV_PIX_FMT_RGB555BE,///< packed RGB 5:5:5, 16bpp, (msb)1X 5R 5G 5B(lsb), little-endian, X=unused/undefinedAV_PIX_FMT_RGB555LE,///< packed BGR 5:6:5, 16bpp, (msb) 5B 6G 5R(lsb), big-endianAV_PIX_FMT_BGR565BE,///< packed BGR 5:6:5, 16bpp, (msb) 5B 6G 5R(lsb), little-endianAV_PIX_FMT_BGR565LE,///< packed BGR 5:5:5, 16bpp, (msb)1X 5B 5G 5R(lsb), big-endian , X=unused/undefinedAV_PIX_FMT_BGR555BE,///< packed BGR 5:5:5, 16bpp, (msb)1X 5B 5G 5R(lsb), little-endian, X=unused/undefinedAV_PIX_FMT_BGR555LE,}复制代码每个类型的注释开头要么是packed要么是planar,YUV 类型后跟着三个数字 4:2:0、4:2:2、4:4:4 等等,这些都表⽰什么?带着这些疑问,开始搜索资料研究学习 RGB 和 YUV 颜⾊空间相关和像素格式的概念。
常见视频编码格式与RGB、YUV视频存储格式
TCC8900 VPU分析---星恒教育--何伟整理——常见视频编解码格式及RGB和YUV存储格式预研一、常见视频编解码格式1视频文件类别常言道:物以类聚,人以群分。
视频文件也不例外,细细算起来,视频文件可以分成两大类:其一是影像文件,比如说常见的VCD便是一例。
其二是流式视频文件,这是随着国际互联网的发展而诞生的后起视频之秀,比如说在线实况转播,就是构架在流式视频技术之上的。
1.1影像格式日常生活中接触较多的VCD、多媒体CD光盘中的动画……这些都是影像文件。
影像文件不仅包含了大量图像信息,同时还容纳大量音频信息。
所以,影像文件的“身材”往往不可小觑。
1)AVI格式2)MOV格式3)MPEG/MPG/DAT格式1.2流式视频格式目前,很多视频数据要求通过Internet来进行实时传输,前面我们曾提及到,视频文件的体积往往比较大,而现有的网络带宽却往往比较“狭窄”,千军万马要过独木桥,其结果当然可想而知。
客观因素限制了视频数据的实时传输和实时播放,于是一种新型的流式视频(Streaming Video)格式应运而生了。
这种流式视频采用一种“边传边播”的方法,即先从服务器上下载一部分视频文件,形成视频流缓冲区后实时播放,同时继续下载,为接下来的播放做好准备。
这种“边传边播”的方法避免了用户必须等待整个文件从Internet上全部下载完毕才能观看的缺点。
到目前为止,Internet上使用较多的流式视频格式主要是以下三种:1)RM(Real Media)格式RM格式是RealNetworks公司开发的一种新型流式视频文件格式,它麾下共有三员大将:RealAudio、RealVideo和RealFlash。
RealAudio用来传输接近CD音质的音频数据,RealVideo用来传输连续视频数据,而RealFlash则是RealNetworks 公司与Macromedia公司新近合作推出的一种高压缩比的动画格式。
RGB ,YUV, YCbCr的定义
RGB ,YUV, YCbCr的定义YUV视频编解码器功能视频编码器要求YUV4:2:0格式的视频输入,因此可能根据应用需要进行视频输入的预处理,即对YUV4:2:2隔行扫描(例如从摄像机)到YUV 4:2:0非隔行扫描转换,仅抽取但不过滤UV 分。
对视频解码器而言,还需要进行后处理,以将解码的YUV 4:2:0数据转换为RGB进行显示,包括:YUV 4:2:0到RGB转换;16位或12位RGB显示格式;0到90度旋转,实现横向或纵向显示。
此外,视频编解码器通常还要求具有以下功能和特性:支持MPEG-4简单类 0、1 与 2 级;兼容H.263与 MPEG-4 编解码标准;MPEG-4视频解码器支持的可选项有:AC/DC预测、可逆可变长度编码(RVLC)、再同步标志(R M)、数据分割(DP)、错误隐藏专利技术、支持每个宏块4个运动矢量(4MV)、自由运动补偿、解码VOS层;MPEG-4视频编码器选项有:RVLC、RM、DP、支持每个宏块4个运动矢量(4MV)、报头扩展码、支持编码期间码率改变、支持编码期间编码帧率改变、插入或不插入可视对象序列起始码;支持编码期间序列中插入I帧;支持编码器自适应帧内刷新(AIR);支持多编解码器,可用相同代码运行多个编解码器实例。
RGB红绿蓝(RGB)是计算机显示的基色,RGB565支持的色深可编程至高达每像素16位,即 RGB5 65(红色5位,绿色6位,蓝色5位)。
YCbCr在DVD、摄像机、数字电视等消费类视频产品中,常用的色彩编码方案是YCbCr,其中Y是指亮度分量,Cb指蓝色色度分量,而Cr指红色色度分量。
人的肉眼对视频的Y分量更敏感,因此在通过对色度分量进行子采样来减少色度分量后,肉眼将察觉不到的图像质量的变化。
主要的子采样格式有YCbCr 4:2:0、YCbCr 4:2:2 和 YCbCr 4:4:4。
4:2:0表示每4个像素有4个亮度分量,2个色度分量(YYYYCbCr),仅采样奇数扫描线,是便携式视频设备(MPEG-4)以及电视会议(H.263)最常用格式;4:2:2表示每4个像素有4个亮度分量,4个色度分量(YYYYCbCrCbCr),是DVD、数字电视、HDTV 以及其它消费类视频设备的最常用格式;4:4:4表示全像素点阵(YYYYCbCrCbCrCbCrCbCr),用于高质量视频应用、演播室以及专业视频产品。
显卡的视频输出格式RGBvsYUV
显卡的视频输出格式RGBvsYUV 显卡的视频输出格式RGB vs YUV显卡是计算机中负责图形处理和视频输出的重要组件。
它负责将计算机中的数字信号转换成可视的图像信号,并通过视频输出接口传递给显示器。
在视频输出过程中,显卡使用不同的颜色空间来表示和传输图像,其中最常用的是RGB和YUV这两种格式。
RGB是红绿蓝三原色模型的缩写。
在RGB颜色空间中,图像的每个像素由红色、绿色和蓝色三个主要颜色通道的数值组成。
每个通道的数值范围通常是0-255,代表了对应颜色的亮度。
通过调整每个通道的数值,可以得到不同的颜色组合,从而生成具体的图像。
YUV则是亮度-色度模型的缩写。
与RGB不同,YUV颜色空间将图像的亮度和色度分离处理。
Y通道表示亮度信息,而U和V通道表示色度信息。
亮度信息决定了图像的明暗程度,而色度信息则决定了图像的颜色饱和度。
通过调整Y、U、V通道的数值,可以得到不同的亮度和颜色组合,从而生成具体的图像。
RGB和YUV这两种颜色格式各有优缺点,适用于不同的应用场景。
在计算机图形处理方面,RGB格式被广泛应用。
由于RGB直接表示了图像的每个像素的颜色信息,因此它对于颜色精度要求较高的场景非常适用,比如图像编辑、计算机游戏等。
此外,RGB的颜色调节范围较大,可以显示更丰富的颜色细节。
而在视频压缩和传输方面,YUV格式更常用。
相比于RGB,YUV对亮度信息的精度要求较高,而对色度信息的精度要求较低。
这是因为人眼对于亮度变化比对颜色变化更敏感。
因此,在视频传输过程中,可以通过减少色度信息的传输量来实现对带宽的节约。
此外,YUV格式还适用于模拟电视信号的传输,因为模拟电视信号中的亮度和色度信息也是分开传输的。
在实际应用中,由于显示器的工作原理和显示技术的差异,显卡需要将输出信号转换为特定的格式才能正常显示。
一般而言,显卡会根据显示器的特性和连接接口选择合适的输出格式。
例如,液晶显示器一般使用RGB格式进行显示,而电视则更常使用YUV格式。
YUV,RGB,H.264,MPEG
YUV,RGB,H.264,MPEG图像领域的术语还真是多,不仔细学习学习还真搞不清楚。
先一个个介绍下吧:1、RGB这个大部分都知道,“人类眼睛的色觉,具有特殊的特性,早在上世纪初,Young(1809)和Helmholtz(1824)就提出了视觉的三原色学说,即:视网膜存在三种视锥细胞,分别含有对红、绿、蓝三种光线敏感的视色素,当一定波长的光线作用于视网膜时,以一定的比例使三种视锥细胞分别产生不同程度的兴奋,这样的信息传至中枢,就产生某一种颜色的感觉。
”反正就是所有颜色都是由红(RED),绿(GREEN),蓝(BLUE)三种原色合成的。
RGB是一种颜色的表示法,计算机中一般采用24位来存储,每个颜色占8位。
但注意在一般的嵌入式设备中,很多LCD显示支持的都是RGB16(565),显存不够嘛。
2、YUV也是一种颜色空间,为什么要出现YUV,主要有两个原因,一个是为了让彩色信号兼容黑白电视机,另外一个原因是为了减少传输的带宽。
YUV中,Y表示亮度,U和V表示色度,总之它是将RGB信号进行了一种处理,根据人对亮度更敏感些,增加亮度的信号,减少颜色的信号,以这样“欺骗”人的眼睛的手段来节省空间。
YUV的格式也很多,不过常见的就是422和420格式。
在一般的技术开发中,常用的还是yCbCr,这是一种420格式,也称作I420,注意这个YV12的数据排列刚好是相反的。
这个等下再专门分析下。
3、H.264H.264,MPEG-4,MPEG-2等这些都是压缩算法,毕竟带宽是有限的,为了获得更好的图像的传输和显示效果,就不断的想办法去掉一些信息,转换一些信息等等,这就是这些压缩算法的做的事情。
关于这个算法的详细介绍,可以看CSDN上一个牛人的博客——/sunshine1314/archive/2006/05/08/712401. aspx 从目前的形式来看,H.264大有一统天下之势。
网上摘录的一段:H.264最大的优势是具有很高的数据压缩比率,在同等图像质量的条件下,H.264的压缩比是MPEG-2的2倍以上,是MPEG-4的1.5~2倍。
详解采集卡中的RGB、YUV格式
RGB32使用32位来表示一个像素,RGB分量各用去8位,剩下的8位用作Alpha通道或者不用。(ARGB32就是带Alpha通道的 RGB32。)注意在内存中RGB各分量的排列顺序为:BGRA BGRA BGRA...。
综上所述,相信大家现在对同三维T200AE VGA采集卡中支持RGB565,RGB24,RGB32,YUY2,UYVY的格式有了很清楚的认识,此款高清VGA采集卡是针对专业领域用户量身打造的多用途多功能产品。
我们先介绍下YUV这个参数,也常被称作为YCrCb,属于PAL信号制式,在现代彩色电视系统中,通常采用三管彩色摄影机或彩色CCD摄影机进行取像,然后把取得的彩色图像信号经分色、分别放大校正后得到RGB,再经过矩阵变换电路得到亮度信号Y和两个色差信号R-Y(即U)、B-Y(即V),最后发送端将亮度和色差三个信号分别进行编码,用同一信道发送出去。这种色彩的表示方法就是所谓的YUV色彩空间表示。采用YUV色彩空间的重要性是它的亮度信号Y和色度信号U、V是分离的。如果只有 Y信号分量而没有U、V信号分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的相容问题,使黑白电视机也能接收彩色电视信号。
YUV与RGB相互转换的公式如下(RGB取值范围均为0-25; 0.587G + 0.114B
U = -0.147R – 0.289G + 0.436B
V = 0.615R – 0.515G – 0.100B
R = Y + 1.14V
VGA采集卡是一种专业领域使用的视频采集卡,广泛应用于视频会议、视频监控、网络教学、多媒体直播录播、医疗系统、多屏拼接等流媒体领域。同三维T200AE VGA采集卡输出格式能支持RGB565,RGB24,RGB32,YUY2,UYVY等。很多朋友对这个参数不是很了解,下面我们就这对这个进行介绍。
各种视频信号格式及端子介绍
各种视频信号格式及端子介绍RF/AV/SVIDEO/YUV/VGA/RGB/RGBS/DVI/HDMI/视频信号是我们接触最多的显示信号,但您并不一定对各种视频信号有所了解。
因为国内用到的视频信号格式和端子非常有限,一般就是复合视频和S端子,稍高级一些的就是色差及VGA。
对于那些经常接触国外电器和二手设备的朋友,就会遇到各种希奇古怪的信号端子,我们也经常接到读者这方面的提问。
请读者注意:我们这里所说的视频信号并不是严格意义上的带宽只有5MHz的视频信号,而是泛指能作为输入输出的显示信号。
本文试图把常用视频信号做一简单叙述,有不全和不对的地方请读者朋友指出。
一、各种视频信号复合视频信号(Video)复合视频信号是我们日常生活中最为常见的视频信号,它在一个传输信号中包含了亮度、色度和同步信号。
由于彩色编码的不同,复合视频又有PAL、NTSV、SECAM制式之分。
复合视频信号本身的带宽只有5MHz(NTSC制式带宽仅4.5MHz),中间又加了彩色副载波信号(NTSC制为3.58MHz,PAL和SECAM制为4.43MHz),正好落在亮度信号带宽之内,占去了一部分亮度信号,又造成亮度和色度的相互干扰,使得复合视频成为最差的视频信号。
复合视频信号一般用RCA插头连接,就是通常说的莲花插头,见图1。
欧洲也用SCART接口,老式的视频设备也有用BNC插头连接。
S视频信号(S-Video)S视频信号俗称S端子信号,它同时传送两路信号:亮度信号Y和色度信号C。
由于将亮度和色度分离,所以图象质量优于复合视频信号,色度对亮度的串扰现象也消失。
由于S视频信号亮度带宽没有改变,色度信号仍须解调,所以其图象质量的提高是有限的,但肯定解决了亮色串扰,消除图象的爬行现象。
S端子用四芯插头,见图2。
欧洲也用SCART插头,老式的视频设备也有用两个BNC插头连接,计算机显卡也有用七芯插头,其外形与S端子一样,只是又包含了复合视频信号。
Adobe Premiere Pro中色彩编码和视频格式的理解
Adobe Premiere Pro中色彩编码和视频格式的理解色彩编码和视频格式是视频编辑领域中非常重要的概念,它们决定了视频的质量和兼容性。
在Adobe Premiere Pro软件中,我们需要了解和掌握色彩编码和视频格式的相关知识,以便进行高质量的视频编辑和输出。
首先,让我们来谈谈色彩编码。
色彩编码是将视频图像的颜色信息转换为数字数据的过程。
在Adobe Premiere Pro中,常见的色彩编码有RGB和YUV两种。
RGB色彩编码是将红色(R)、绿色(G)和蓝色(B)三个颜色通道的数值分别表示图像中的每个像素点的颜色信息。
它广泛应用于计算机领域,像素点的颜色可以通过改变RGB的数值来调整。
YUV色彩编码是将明度(Y)和色度(U、V)两个通道的数值分别表示图像中的每个像素点的亮度和颜色信息。
相比于RGB,YUV色彩编码可以实现更高的压缩比,提供更小的文件大小。
常见的YUV色彩编码有YUV420、YUV422和YUV444等。
接下来,我们来讨论视频格式。
视频格式是指视频文件存储的数据结构和编码方式。
在Adobe Premiere Pro中,支持的视频格式包括常见的MP4、MOV、AVI等。
不同的视频格式具有不同的特点和适用场景。
MP4是一种常见的视频格式,具有较高的压缩比和较好的兼容性。
它可以包含多种不同的视频编码和音频编码,可在各种设备上播放。
MOV格式是由Apple公司开发的一种视频格式,主要用于储存QuickTime影片。
它支持各种视频编码和音频编码,并且在苹果设备上有着良好的兼容性。
AVI格式是一种通用的视频格式,它可以容纳多个视频和音频流,并支持不同的编码器。
然而,由于AVI格式的文件较大,它在互联网传输和存储方面的应用相对较少。
了解不同的色彩编码和视频格式对于视频编辑非常重要。
在Adobe Premiere Pro中,我们可以根据需要选择合适的色彩编码和视频格式来进行编辑和输出。
在项目设置中,我们可以选择使用的色彩编码和视频格式。
YUV格式介绍
YUV格式介绍最近在做视频采集⽅⾯的程序,使⽤vlc对采集到的视频进⾏播放,但是视频的颜⾊格式貌似有问题导致⽆法播放,以下为VLC WIKI关于YUV格式的翻译,YUV是视频应⽤中使⽤的⼀类像素格式。
YUV实际上是所有“YUV”像素格式共有的颜⾊空间的名称。
与RGB格式(红 - 绿 - 蓝)相对应,YUV颜⾊⽤⼀个称为Y(相当于灰度)的“亮度”分量和两个“⾊度”分量表⽰,分别称为U(蓝⾊投影)和V(红⾊投影), YUV由此得名。
YUV也可以称为YCbCr,虽然这些术语的含义略有不同,但它们往往会混着并互换使⽤。
本⽂介绍了VLC媒体播放器环境中最有⽤的YUV像素格式。
除⾮另有说明,否则每个成员的⽤⼀个⼋位字节(8位)存储。
平⾯格式平⾯(或有时“三平⾯”)格式对3种颜⾊分量中的每⼀种使⽤单独的矩阵。
换句话说,存在⼀个亮度像素值表和⽤于⾊度分量的两个单独的表。
这在像素的存储器中的分离表⽰对于视频编码更⽅便。
⼀、平⾯格式平⾯(或有时称“三平⾯”)格式对3种颜⾊分量中的每⼀种使⽤单独的矩阵。
换句话说,存在⼀个亮度像素值表和⽤于⾊度分量的两个单独的表。
在存储器中将像素分离表⽰,这对于视频编码更⽅便。
1. YUV 4:2:0 (I420/J420/YV12)(1). I420⾸先它有⼀个“亮度”平⾯Y,然后是U⾊度平⾯,最后是V⾊度平⾯。
两个⾊度平⾯(蓝⾊和红⾊投影)在⽔平和垂直维度以2为倍数进⾏下采样。
也就是说,对于2x2像素块,有4个Y样本,⽽只有1个U样本和1 V样本。
对于4个像素,此格式需要4 * 8 + 8 + 8 = 48位,因此其位深度是12。
⽬前,I420是VLC中最常见的格式。
⼤多数视频解码器也以I420格式输出原始图像。
以下符号说明:每个字母(Y/U/V)代表⼀位。
对于⼀个 I420 像素存储的位格式: YYYYYYYY UU VV对于50个像素的 I420 帧: YYYYYYYY*50 UU*50 VV*50 (or Y*8*50 U*2*50 V*2*50 for short)对于n个像素的 I420 帧: Y*8*n U*2*n V*2*n(2). J420J420可以说和I420完全相同,但具有全范围(“数字”,0-255)亮度(Y)分量⽽不是有限范围(“模拟”,16-240)。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
TCC8900 VPU分析——常见视频编解码格式及RGB和YUV存储格式预研一、常见视频编解码格式1视频文件类别常言道:物以类聚,人以群分。
视频文件也不例外,细细算起来,视频文件可以分成两大类:其一是影像文件,比如说常见的VCD便是一例。
其二是流式视频文件,这是随着国际互联网的发展而诞生的后起视频之秀,比如说在线实况转播,就是构架在流式视频技术之上的。
1.1影像格式 日常生活中接触较多的VCD、多媒体CD光盘中的动画……这些都是影像文件。
影像文件不仅包含了大量图像信息,同时还容纳大量音频信息。
所以,影像文件的“身材”往往不可小觑。
1)AVI格式2)MOV格式3)MPEG/MPG/DAT格式1.2流式视频格式 目前,很多视频数据要求通过Internet来进行实时传输,前面我们曾提及到,视频文件的体积往往比较大,而现有的网络带宽却往往比较“狭窄”,千军万马要过独木桥,其结果当然可想而知。
客观因素限制了视频数据的实时传输和实时播放,于是一种新型的流式视频(Streaming Video)格式应运而生了。
这种流式视频采用一种“边传边播”的方法,即先从服务器上下载一部分视频文件,形成视频流缓冲区后实时播放,同时继续下载,为接下来的播放做好准备。
这种“边传边播”的方法避免了用户必须等待整个文件从Internet上全部下载完毕才能观看的缺点。
到目前为止,Internet上使用较多的流式视频格式主要是以下三种:1)RM(Real Media)格式 RM格式是RealNetworks公司开发的一种新型流式视频文件格式,它麾下共有三员大将:RealAudio、RealVideo和RealFlash。
RealAudio用来传输接近CD音质的音频数据,RealVideo用来传输连续视频数据,而RealFlash则是RealNetworks公司与Macromedia公司新近合作推出的一种高压缩比的动画格式。
RealMedia可以根据网络数据传输速率的不同制定了不同的压缩比率,从而实现在低速率的广域网上进行影像数据的实时传送和实时播放。
这里我们主要介绍RealVideo,它除了可以以普通的视频文件形式播放之外,还可以与RealServer服务器相配合,首先由RealEncoder负责将已有的视频文件实时转换成RealMedia格式,RealServer则负责广播RealMedia视频文件。
在数据传输过程中可以边下载边由RealPlayer播放视频影像,而不必像大多数视频文件那样,必须先下载然后才能播放。
目前,Internet上已有不少网站利用RealVideo技术进行重大事件的实况转播。
2)MOV文件格式(QuickTime) MOV也可以作为一种流文件格式。
QuickTime能够通过Internet提供实时的数字化信息流、工作流与文件回放功能,为了适应这一网络多媒体应用,QuickTime为多种流行的浏览器软件提供了相应的QuickTime Viewer插件(Plug-in),能够在浏览器中实现多媒体数据的实时回放。
该插件的“快速启动(Fast Start)”功能,可以令用户几乎能在发出请求的同时便收看到第一帧视频画面,而且,该插件可以在视频数据下载的同时就开始播放视频图像,用户不需要等到全部下载完毕就能进行欣赏。
此外,QuickTime还提供了自动速率选择功能,当用户通过调用插件来播放QuickTime多媒体文件时,能够自己选择不同的连接速率下载并播放影像,当然,不同的速率对应着不同的图像质量。
此外,QuickTime还采用了一种称为QuickTime VR的虚拟现实(VR,Virtual Reality)技术,用户只需通过鼠标或键盘,就可以观察某一地点周围360度的景象,或者从空间任何角度观察某一物体。
3)ASF(Advanced Streaming Format)格式 Microsoft公司推出的Advanced Streaming Format (ASF,高级流格式),也是一个在Internet上实时传播多媒体的技术标准,Microsoft公司的野心很大,希图用ASF取代QuickTime之类的技术标准。
ASF的主要优点包括:本地或网络回放、可扩充的媒体类型、部件下载、以及扩展性等。
ASF应用的主要部件是NetShow服务器和NetShow播放器。
有独立的编码器将媒体信息编译成ASF流,然后发送到NetShow服务器,再由NetShow服务器将ASF流发送给网络上的所有NetShow播放器,从而实现单路广播或多路广播。
这和Real系统的实时转播则是大同小异。
2常见的视频的编码及封装格式2.1常见视频编码格式常见的编码格式有H.264、H.263、MPEG-1、MPEG-2、MPEG、4、Sorenson Spark、VC-1、JPEG、RV、DivX、On2 True Motion VP6。
对于高清视频来说,主流的编码技术目前主要有 MPEG-2、DivX、XVID、H264/AVC、VC-1、RMVB 和WMV-HD 等等。
其中,H264/AVC、VC-1、MPEG-2是蓝光(Blu-ray Disc)所选择的编码格式,也是目前最流行的高清视频编码格式。
另外就是高清视频的封装格式,封装格式和编码格式是互相区别的,许多人会把它们混淆。
下图为常见编码格式的logo:g s i n t h 图1.1常见编码格式logo1)H264/X264/AVC 编码格式绝大多数视听玩家对于 H264 编码都不会感到陌生,H264 编码的身世显赫,是 ITU-T (国际电信联盟视频编码专家组)与 ISO/IEC (国际标准化组织动态图像专家组)合作组成的 JVT (联合视频组)推动的新一代数字视频编码标准,也称为 MPEG-4/AVC 编码。
H264 编码依托雄厚的背景,在技术上独树一帜,大幅领先于其它编码算法。
X264 编码,是 H264 编码的一个开源分支,它符合 H264 标准,其功能在于编码,而不作为解码器使用,X264 编码最大的特点在于注重实用,它在不明显降低编码性能的前提下,努力降低编码的计算复杂度,X264 对于 H264 编码中的一些复杂编码特性做了折衷处理,其压缩视频体积小于XVID (MPEG-4)编码视频,以小体积、高画质的特点得到了广泛认可。
2)H.263编码格式H.263是国际电联ITU-T 的一个标准草案,是为低码流通信而设计的。
但实际上这个标准可用在很宽的码流范围,而非只用于低码流应用,它在许多应用中可以认为被用于取代H.261。
H.263的编码算法与H.261一样,但做了一些改善和改变,以提高性能和纠错能力。
1998年IUT-T 推出的H.263+是H.263建议的第2版,它提供了12个新的可协商模式和其他特征,进一步提高了压缩编码性能。
如H.263只有5种视频源格式,H.263+允许使用更多的源格式,图像时钟频率也有多种选择,拓宽应用范围;另一重要的改进是可扩展性,它允许多显示率、多速率及多分辨率,增强了视频信息在易误码、易丢包异构网络环境下的传输。
另外,H.263+对H.263中的不受限运动矢量模式进行了改进,加上12个新增的可选模式,不仅提高了编码性能,而且增强了应用的灵活性。
H.263已经基本上取代了H.2613)MPEG-1 编码格式i n g s i n t h e b e i n g a r e 4)MPEG-2 编码格式MPEG-2 编码标准是由 MPEG (Moving Picture Experts Group )工作组发布的视频与音频压缩国际标准。
MPEG-2 编码于 1994 年发布,常用于广播信号(卫星电视、有线电视)的视频和音频编码,经过后期不断修改,不仅成为 DVD 的核心技术,还应用于 HDTV 高清电视传输。
5)MPEG-4 编码格式MPEG4于1998 年11 月公布,原预计1999 年1月投入使用的国际标准MPEG4不仅是针对一定比特率下的视频、音频编码,更加注重多媒体系统的交互性和灵活性。
MPEG-4标准主要应用于视像电话(Video Phone),视像电子邮件(Video Email)和电子新闻(Electronic News)等,其传输速率要求较低,在4800-64000bits/sec 之间,分辨率为176X144。
MPEG-4利用很窄的带宽,通过帧重建技术,压缩和传输数据,以求以最少的数据获得最佳的图像质量。
6)Sorensen Spark 编码格式Sorenson 编解码器可以指三个专有的视频编解码器:Sorenson 视频,Sorenson 视频3或Sorenson Spark 。
Sorenson 视频也被称为Sorenson 视频编解码器,Sorenson 视频量化或SVQ 。
Sorenson Spark 也被称为H.263或FLV1Sorenson (而且有时误为Flash 视频(FLV ),这是以Adobe Flash 容器格式名称命名)。
这两种编解码器的设计由Sorenson 媒体公司。
Sorenson 视频是用在苹果的QuickTime 和Sorenson Spark 在用在Adobe Flash 容器中。
7)VC-1 编码格式WMV (Windows Media Video )作为经久不衰的一种视频编码,一直在不断改进,2003 年,微软基于 WMV 第九版(WMV9)编码技术,正式提出了 VC-1 编码标准,并于 2006 年正式成为国际标准。
VC-1 编码作为较晚推出的高清编码算法,自然吸收了 MPEG-2 与 H264 编码的优点,其压缩比介于 MPEG2 和 H264 之间,编解码复杂性仅有 H264 的一半,即压缩时间更短、解码计算更小,在微软的大力推动下,VC-1 编码已经得到了 BD 蓝光光盘、电影及电视学会(SMPTE )的支持。
近几年来,为了更好的推广 WMV9/VC-1 编码标准,微软不遗余力的建立了 WMV-HD 高清资源站点,大量发布采用 VC-1 编码压制的 720P 、1080P 宣传片及演示片(WMV-HD 视频格式) ,试图营造声势,吸引用户关注。
不过,中庸的技术(与 H264 相比无明显编码优势)、封闭的平台(限于 Windows 系统)、后发的劣势(2006 年通过成为国际标准)仍然给微软 VC-1 编码的应用前景带来了较大的不确定性。
8)JPEG编码格式JPEG 是Joint Photographic Experts Group(联合图像专家小组))的缩写。
JPEG的压缩方式通常是破坏性资料压缩(lossy compression),意即在压缩过程中图像的品质会遭受到可见的破坏,有一种以JPEG为基础的标准Progressive JPEG是采用无失真的压缩方式,但Progressive JPEG并没有受到广泛的支援。