Linux摄像内核V4L2的驱动

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Video4Linux的使用方法
2010-03-16 19:34
source:http:
///course/6_system/linux/Linuxjs/2008108/149159.html
1.什么是video4linux
Video4linux(简称V4L),是linux中关于视频设备的内核驱动,现在已有Video4linux2,还未加入linux内核,使用需自己下载补丁。

在Linux中,视频设备是设备文件,可以像访问普通文件一样对其进行读写,摄像头在
/dev/video0下。

2.Video4linux下视频编程的流程
(1)打开视频设备:
(2)读取设备信息
(3)更改设备当前设置(没必要的话可以不做)
(4)进行视频采集,两种方法:
a.内存映射
b.直接从设备读取
(5)对采集的视频进行处理
(6)关闭视频设备。

为程序定义的数据结构
typedef struct v4l_struct
{
int fd;
struct video_capability capability;
struct video_channel channel[4];
struct video_picture picture;
struct video_window window;
struct video_capture capture;
struct video_buffer buffer;
struct video_mmap mmap;
struct video_mbuf mbuf;
unsigned char *map;
int frame;
int framestat[2];
}vd;
3.Video4linux支持的数据结构及其用途
(1) video_capability 包含设备的基本信息(设备名称、支持的最大最小分辨率、信号源信息等),包含的分量:
?name[32] //设备名称
?maxwidth ,maxheight,minwidth,minheight
?Channels //信号源个数
?type //是否能capture,彩色还是黑白,是否能裁剪等等。

值如
VID_TYPE_CAPTURE等
?
(2)video_picture 设备采集的图象的各种属性
?brightness 0~65535
?hue
?colour
?contrast
?whiteness
?depth // 24
?palette //VIDEO_PALETTE_RGB24
(3)video_channel 关于各个信号源的属性
Channel //信号源的编号
name
tuners
Type VIDEO_TYPE_TV | IDEO_TYPE_CAMERA
Norm制式
(4)video_window //包含关于capture area的信息
xx windows 中的坐标.
y x windows 中的坐标.
width The width of the image capture.
height The height of the image capture.
chromakey A host order RGB32 value for the chroma key.
flags Additional capture flags.
clips A list of clipping rectangles. (Set only)
clipcount The number of clipping rectangles. (Set only)
(5)video_mbuf //利用mmap进行映射的帧的信息
size //每帧大小
Frames //最多支持的帧数
Offsets //每帧相对基址的偏移
(6)video_buffer 最底层对buffer的描述
void *baseBase physical address of the buffer
int heightHeight of the frame buffer
int widthWidth of the frame buffer
int depthDepth of the frame buffer
int bytesperlineNumber of bytes of memory between the start of two adjacent lines
实际显示的部分一般比它描述的部分小
(7)video_mmap //用于mmap
4.关键步骤介绍
(1)打开视频:
Open(”/dev/video0”,vdàfd);
关闭视频设备用close(”/dev/video0”,vdàfd);
(2)读video_capability 中信息
ioctl(vd->fd, VIDIOCGCAP, &(vd->capability))
成功后可读取vd->capability各分量 eg.
(3)读video_picture中信息
ioctl(vd->fd, VIDIOCGPICT, &(vd->picture));
(4)改变video_picture中分量的值(可以不做的)
先为分量赋新值,再调用VIDIOCSPICT
Eg.
?vd->picture.colour = 65535;
?if(ioctl(vd->fd, VIDIOCSPICT, &(vd->picture)) < 0)
?{
?perror("VIDIOCSPICT");
?return -1;
?}
(5)初始化channel (可以不做的)
?必须先做得到vd->capability中的信息
?for (i = 0; i < vd->capability.channels; i++)
? {
? vd->channel[i].channel = i;
? if (ioctl(vd->fd, VIDIOCGCHAN, &(vd->channel[i])) < 0)
? {
? perror("v4l_get_channel:");
? return -1;
? }
? }
重点:截取图象的两种方法
1,用mmap(内存映射)方式截取视频
?mmap( )系统调用使得进程之间通过映射同一个普通文件实现共享内存。

普通文件被映射到进程地址空间后,进程可以向访问普通内存一样对文件进行访问,不必再调用read(),write()等操作。

?两个不同进程A、B共享内存的意思是,同一块物理内存被映射到进程A、B各自的进程地址空间。

进程A可以即时看到进程B对共享内存中数据的更新,反之亦然
?采用共享内存通信的一个显而易见的好处是效率高,因为进程可以直接读写内存,而不需要任何数据的拷贝
(1)设置picture的属性
(2)初始化video_mbuf,以得到所映射的buffer的信息
ioctl(vd->fd, VIDIOCGMBUF, &(vd->mbuf))
(3)可以修改video_mmap和帧状态的当前设置
? Eg. vd->mmap.format = VIDEO_PALETTE_RGB24
? vd->framestat[0] = vd->framestat[1] = 0; vd->frame = 0; (4)将mmap与video_mbuf绑定
?void* mmap ( void * addr , size_t len , int prot , int flags , int fd , off_t offset )
?len //映射到调用进程地址空间的字节数,它从被映射文件开头offset个字节开始算起
?Prot //指定共享内存的访问权限 PROT_READ(可读), PROT_WRITE (可写), PROT_EXEC (可执行)
?flags // MAP_SHARED MAP_PRIVATE中必选一个 // MAP_ FIXED不推荐使用addr //共内存享的起始地址,一般设0,表示由系统分配
?Mmap( ) 返回值是系统实际分配的起始地址
?if((vd->map = (unsigned char*)mmap(0, vd->mbuf.size,
PROT_READ|PROT_WRITE, MAP_SHARED, vd->fd, 0)) < 0)
?{
?perror("v4l_mmap mmap:");
?return -1;
?}
(5)Mmap方式下真正做视频截取的 VIDIOCMCAPTURE
ioctl(vd->fd, VIDIOCMCAPTURE, &(vd->mmap)) ;
?若调用成功,开始一帧的截取,是非阻塞的,
?是否截取完毕留给VIDIOCSYNC来判断
(6)调用VIDIOCSYNC等待一帧截取结束
?if(ioctl(vd->fd, VIDIOCSYNC, &frame) < 0)
?{
?perror("v4l_sync:VIDIOCSYNC");
?return -1;
?}
若成功,表明一帧截取已完成。

可以开始做下一次 VIDIOCMCAPTURE
?frame是当前截取的帧的序号。

****关于双缓冲:
?video_bmuf bmuf.frames = 2;
?一帧被处理时可以采集另一帧
?int frame; //当前采集的是哪一帧
?int framestat[2]; //帧的状态没开始采集|等待采集结束
?帧的地址由vd->map + vd->mbuf.offsets[vd->frame]得到
?采集工作结束后调用munmap取消绑定
?munmap(vd->map, vd->mbuf.size)
2,视频截取的第二种方法:直接读设备
关于缓冲大小,图象等的属性须由使用者事先设置
?调用read();
?int read (要访问的文件描述符;指向要读写的信息的指针;应该读写的字符
数);
?返回值为实际读写的字符数
?int len ;
?unsigned char *vd->map= (unsigned char *)
malloc(vdàcapability.maxwidth*vdàcapability.maxheight );
?len = read(vdàfd,vdà vd->map,
? vdàcapability.maxwidth*vdàcapability.maxheight*3 );
Video4Linux
求助编辑
Video4Linux(简V4L)是Linux中关于视频设备的内核驱动,它为针对视频设备的应用程序编程提供一系列接口函数,这些视频设备包括现今市场上流行的TV 卡、视频捕捉卡和USB摄像头等。

对于USB口摄像头,其驱动程序中需要提供基本的I/O操作接口函数open、read、write、close的实现。

对中断的处理实现,内存映射功能以及对I/O通道的控制接口函数
ioct1的实现等,并把它们定义在struct file_operations中。

这样当应用程序对设备文件进行诸如open、close、read、write等系统调用操作时,Linux内核将通过file_operations结构访问驱动程序提供的函数。

例如,当应用程序对设备文件执行读操作时,内核将调用file_operations结构中的read函数。

在系统平台上对USB口数码摄像头驱动,首先把USB控制器驱动模块静态编译进内核,使平台中支持USB接口,再在需要使用摄像头采集时,使用insmode动态加载其驱动模块,这样摄像头就可正常工作了,接着进行了下一步对视频流的采集编程。

程序中定义的数据结构
struct video_capability grab_cap;
struct video_picture grab_pic;
struct video_mmap grab_buf;
struct video_mbuf grab_vm;
这些数据结构都是由Video4Linux支持的,它们的用途如下:
*video_capability包含摄像头的基本信息,例如设备名称、支持的最大最小分辨率、信号源信息等,分别对应着结构体中成员变量name [32]、maxwidth、maxheight、minwidth、minheight、channels(信号源个数)、type等;
*voide_picture包含设备采集图像的各种属性,如brightness(亮度)、hue(色调)、contrast(对比度)、whiteness(色度)、depth(深度)等;
*video_mmap用于内存映射;
*video_mbuf利用mmap进行映射的帧信息,实际上是输入到摄像头存储器缓冲中的帧信息,包括size(帧的大小)、frames(最多支持的帧数)、offsets(每帧相对基址的偏移)。

程序中用到的主要系统调用函数有:open("/dev/voideo0",int flags)、close(fd)、mmap(void *start,size_t length,int prot,int flags,int fd,off_t offset)、munmap(void *start,size_tlength)和
ioctl(int fd,int cmd,…)。

前面提到Linux系统中把设备看成设备文件,在用户空间可以通过标准的I/O系统调用函数操作设备文件,从而达到与设备通信交互的目的。

当然,在设备驱动中要提供对这些函数的相应支持。

这里说明一下
ioctl(int fd,int cmd,…)函数,它在用户程序中用来控制I/O通道,其中,fd代表设备文件描述符,cmd代表用户程序对设备的控制命令,省略号一般是一个表示类型长度的参数,也可没有。

(2)采集程序实现过程
首先打开视频设备,摄像头在系统中对应的设备文件为/dev/video0,采用系统调用函数grab_fd=open("/dev/video0", O_RDWR),grab_fd是设备打开后返回的文件描述符(打开错误返回-1),以后的系统调用函数就可使用它来对设备文件进行操作了。

接着,利用 ioctl
(grab_fd,VIDIOCGCAP,&grab_cap)函数读取struct video_capability
中有关摄像头的信息。

该函数成功返回后,这些信息从内核空间拷贝到用户程序空间grab_cap各成员分量中,使用 printf函数就可得到各成员分量信息,例如printf("maxheight=%d",grab_fd.maxheight)获得最大垂直分辨率的大小。

不规则用ioctl(grab_fd,VIDIOCGPICT,&grab_pic)函数读取摄像头缓冲中voideo_picture信息。

在用户空间程序中可以改变这些信息,具体方法为先给分量赋新值,再调用VIDIOCSPICT ioctl函数,例如:grab_fd.depth=3;
if(ioctl(grab_fd,VIDIOCSPICT,&grab_pic)<0)
{perror("VIDIOCSP[1]ICT");return -1;};
完成以上初始化设备工作后,就可以对视频图像截取了,有两种方法:一种是read()直接读取;另外一种mmap()内存映射。

Read()通过内核缓冲区来读取数据;而mmap()通过把设备文件映射到内存中,绕过了内核缓冲区,最快的磁盘访问往往还是慢于最慢的内存访问,所以mmap()方式加速了 I/O访问。

另外,mmap()系统调用使得进程之间通过映射同一文件实现共享内存,各进程可以像访问普通内存一样对文件进行访问,访问时只需要使用指针而不用调用文件操作函数。

因为mmap()的以上优点,所以在程序实现中采用了内存映射方式,即mmap()方式。

利用mmap()方式视频裁取具体进行操作如下。

①先使用ioctl(grab_fd,VIDIOCGMBUF,&grab_vm)函数获得摄像头存
储缓冲区的帧信息,之后修改voideo_mmap中的设置,例如重新设置图像帧的垂直及水平分辨率、彩色显示格式。

可利用如下语句
grab_buf.height=240;
grab_buf.width=320;
grab_buf.format=VIDEO_PALETTE_RGB24;
②接着把摄像头对应的设备文件映射到内存区,具体使用
grab_data=(unsigned
char*)mmap(0,grab_vm.size,PROT_READ|PROT_WRITE,MAP_SHARED,grad_f d,0)操作。

这样设备文件的内容就映射到内存区,该映射内容区可读可写并且不同进程间可共享。

该函数成功时返回映像内存区的指针,挫败时返回值为-1。

下面对单帧采集和连续帧采集进行说明:
*单帧采集。

在上面获取的摄像头存储缓冲区帧信息中,最多可支持的帧数(frames的值)一般为两帧。

对于单帧采集只需设置
grab_buf.frame=0,即采集其中的第一帧,使用
ioctl(grab_fd,VIDIOCMCAPTURE,&grab_buf) 函数,若调用成功,则激活设备真正开始一帧图像的截取,是非阻塞的。

接着使用
ioctl(grab_fd,VIDIOCSYNC,&frame) 函数判断该帧图像是否截取完毕,成功返回表示截取完毕,之后就可把图像数据保存成文件的形式。

*连续帧采集。

在单帧的基础上,利用grab_fd.frames值确定采集完毕摄像头帧缓冲区帧数据进行循环的次数。

在循环语句中,也是使用VIDIOCMCCAPTURE ioct1和VIDIOCSYNC ioctl函数完成每帧截取,但要给
采集到的每帧图像赋地址,利用语句
buf=grab_data+grab_vm.offsets[frame],然后保存文件的形式。

若要继续采集可再加一个外循环,在外循环语句只要给原来的内循环再赋frame=0
即可。

4 小结
笔者最后在宿主机PC上使用交叉编译器编译链接连续帧采集程序(以双帧采集为例并保存成bmp文件文件形式)使之生成可执行代码,并完成了向目标平台的移植。

为了进一步观察采集的图像效果,笔者在目标平台带网络支持的基础上,编写了一个简单的网络通信程序,把采集到并保存为bmp的图像文件通过网络传输到 PC机上进行显示,把采集到并保存为bmp的图像文件通过网络传输到PC机上进行显示,通过对效果的分析,再回到采集程序中重新设置 video_picture中的信息,如亮度、对比度等和video_mmap中的分辨率,重新移植以达到最好效果为准。

在图1中的嵌入式系统平台上,应用本文所述方法完成视频采集工作,再加上相关的视频处理并接入网络,就构成了一个智能终端设备,可用于工厂、银行及小区等场合全天候的智能监控,具有广阔的市场和应用前景。

参考资料
1
/doing4who/blog/item/b1c41023bf4739519922ed71.html。

相关文档
最新文档