基于空间信息高斯混合模型的运动车辆检测

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

基于空间信息高斯混合模型的运动车辆检测
张晓娜;何仁;刘志强;陈士安;倪捷
【摘要】针对传统的高斯混合模型运动目标检测法仅仅在像素域的时间尺度上对像素进行分类,而忽视空间位置信息,导致在背景图像和场景的动态变化情况下造成误判等问题,提出了一种基于空间邻域加权的高斯混合模型的运动车辆检测方法.该方法首先根据像素的空间尺度上特征信息,定义了一个具有抑制噪声能力的空间信息函数;然后设计了具有空间约束的当前像素由某个类生成的加权概率,并验证了该加权概率满足归一性和空间连续性2个准则;最后,给出了同时考虑像素点空间和时间信息的模型参数更新公式和运动目标检测方法.通过不同气候条件下的城市交通视频序列运动车辆检测试验表明:该方法具有较满意的检测效果与较好的检测正确率与误判率.%By using conventional Gaussian mixture model, moving object was always detected incorrectly for the situation of dynamic variation of background image and scene, because only pixel level and time domain were classified regardless of spatial information. Based on spatial neighborhood weighted Gaussian mixture model, a moving vehicle detection method was proposed. According to spatial feature of pixel, a spatial information function was defined to restrain noisy. The neighbor information weighted class probabilities of very pixels with spatial constraint were designed and proved to be meet with two criterions of normalization and spatial continuity. Regarding space and time information, the iterative renovated parameter formula and the moving detection algorithm were proposed. The experiments of moving vehicle detection for urban traffic video sequences under different climate
demonstrate that the proposed method can get better classification effeciency and accuracy with low misjudgement rate.
【期刊名称】《江苏大学学报(自然科学版)》
【年(卷),期】2011(032)004
【总页数】5页(P385-388,473)
【关键词】智能交通系统;运动目标;检测;高斯混合模型;空间信息
【作者】张晓娜;何仁;刘志强;陈士安;倪捷
【作者单位】江苏大学汽车与交通工程学院,江苏镇江212013;江苏大学汽车与交通工程学院,江苏镇江212013;江苏大学汽车与交通工程学院,江苏镇江212013;江苏大学汽车与交通工程学院,江苏镇江212013;江苏大学汽车与交通工程学院,江苏镇江212013
【正文语种】中文
【中图分类】U491.226
运动车辆检测是智能交通系统的关键技术之一[1-2],它能够提供车辆大小和位置等基本信息,同时运动车辆检测也是运动车辆跟踪及各交通参数计算的重要基础[3-4].目前,常用的运动目标检测方法[5]有:背景相减法,帧间差分法和光流法.其中背景相减法是目前运动检测中最重要的一种方法,它的基本思想是将输入图像与背景图像进行比较,通过判定灰度特征的变化,或用直方图等统计信息的变化来分割运动目标.在当前运用背景建模进行目标检测的工作中,大致可分为2大类:一类是针对每个独立像素的特征信息建模;另一类是根据区域信息建立区域模型.
目前大多数的方法都是属于第一类的,其中比较著名的有早期C.Wren等人提出的高斯模型[6],但是高斯模型在大多数的室外场景中遇到了问题,因为一些往复运动、阴影和反射使得产生很多误检漏检.C.Stauffer等人[7]用K个高斯混合分布(Gaussian mixture model,简称GMM)对每个像素进行建模,解决了像素的
多峰分布和缓慢变化背景的问题,然而该模型受到取值0到1的全局参数的控制,自适应比较差,收敛速度和模型的稳定性难以达到最优.D.S.Lee提出了有效自适应混合模型[8],该方法使用增量式 EM算法,通过递归滤波器,从最初的少量观测值的训练结果,逐步推广到全体观测值.万成凯等人提出了基于活动轮廓与高斯
混合模型的运动目标检测[9],该方法有效地结合了高斯混合背景模型和活动轮廓的方法,获得了比通常的背景减除方法更好的效果.高斯混合模型由于其在处理
多模态背景(如摇动的树枝、波浪、闪动的屏幕等)中显著的效果而得到广泛的应用,它能有效地适应背景的变化,实时地完成目标检测.
混合高斯模型已成为目前背景减除中最为常用的一个标准算法,但高斯混合模型也只是模拟了单个像素点在时间序列上的分布,而没有考虑到在一帧图像中存在的空间上的关联性,另外存在的一个问题是很难确定混合模型中高斯分布的个数.据此,笔者提出基于空间邻域加权的高斯混合模型运动车辆检测算法,该方法定义空间邻域信息函数,并设计符合归一性空间信息加权类概率,利用这种加权概率表达式,可以在分类过程中加入空间邻域信息,使得该算法同时考虑到像素点空间和时间上的连续性.通过不同条件下的交通视频检测图像序列的对比试验,验证算法是否具
有满意的分割效果和较高的分类正确率.
1 相关背景
混合高斯模型是一种基于模型的聚类方法[10],它用于视频序列图像目标检测
的基本原理可以概述为:使用K个高斯模型来表征图像中各个像素点的特征,在获
得新一帧图像后更新混合高斯模型,用当前图像中的每个像素点与混合高斯模型匹
配,如果匹配成功则判定该点为背景点,否则为前景点.
将每一个特定点的像素在一段连续视频帧中的亮度值看作是一个随时间变化的随机过程,即对于图像中(x0,y0)点的像素的亮度值序列为
式中:I(x0,y0,i)为视频图像序列;Xi为像素点(x0,y0)在i时刻的亮度值,对于灰度图像,Xi为标量,对于彩色图像,Xi为三维矢量.
对每一个像素点亮度的变化过程{X1,X2,…,Xt},其概率分布用如下的混和高斯模型来描述:
式中:K为混和高斯模型中高斯分布的个数(一般K取3~5);ωi,t为在 t时刻第 i
个高斯分布的权值=1);μi,t和σi,t分别为 t时刻第 i个高斯分布的均值和协方差;η为高斯分布的概率密度函数:
对于输入的新的像素灰度值,将其与已有的高斯模型进行匹配,判断其是否服从已有的高斯分布模型,一般用如下的准则来判断该像素是否服从已有的高斯模型(也称与之相匹配):
式中:D为置信参数,通常取2~3.
2 基于空间邻域加权的高斯混合模型
2.1 相关概念
定义1(类后验概率) 设ωk,t为混合模型第k类混合系数,ηk(Xt,μk,t,σk,t)为第 k 类分量密度函数,则第t时刻的观测数据Xt属于第k类的后验概率p(k|Xt)定义为
给定在第t+1时刻的观测数据,与高斯组件的最好匹配应该由定义1的类最大后
验概率Xt)}确定.
定义2(空间信息函数) 设p(k,Xn,t)为第t时刻的观测数据Xt的空间邻域像素Xn,t属于第k类的概率,|Nt|为中心像素是Xt的方形窗口内空间邻域像素的个数,定义第t时刻像素Xt空间信息函数为
定义3(邻域信息加权概率) 设ωk,t为混合模型第k 类混合系数,ηk(Xt,μk,t,σk,t)为第 k 类分量密度函数,定义第t时刻的观测数据Xt的空间邻域信息加权
的属于第k个类的概率为
由传统的高斯模型可知,第t时刻的观测数据Xt属于每一个类的概率必须满足归
一性即不同k值类概率和为1.对式(7)在k值全空间求和,显然和为1,所以定义
3的邻域信息加权概率也满足归一性的特性.
2.2 模型更新
给定一帧新的图像,测试该点处的观测值Xt+1,对于每个像素点将其与该像素点现有的K个高斯分布相比较,如果Xt+1落在某高斯分布D倍的方差以内,就判
定此样本属于该高斯分布,或称与该高斯分布相匹配,匹配公式为
依次从首部到尾部验证第k个高斯分布,若存在m个(m>0)高斯分布与该点匹配,就更新这m个高斯分布的所有参数,更新公式如下:
式中:α为学习速率;ηi为分布参数的更新速率.
对于其他不匹配的高斯分布,均值与方差均表示不变,仅仅更新它们的权重系数:
如果不存在匹配的高斯分布,就用一个新的均值为Xt+1、高方差、低权重的高斯分布取代尾部的第k 个高斯分布,其中 k=a rgmin{ωi,t}.
2.3 目标提取
根据场景中任意点处大部分时间都呈现背景,而运动目标只是短暂出现的基本认识,对背景进行建模:把K个高斯分布按照值从大到小排序,大者表示有较小的方差与
较大的出现概率,说明这些点在1~t时间段内出现的概率较大,因此这些分布可
以作为背景的描述.从首部选取前Bt个高斯分布作为该点处的背景模型,时变参数Bt由权重系数ωi,t和阈值T∈[0,1]确定:
目标提取是根据式(8)判断当前像素是否与背景模型中各高斯分布匹配,如果存在
与之匹配的高斯分布,则划为背景,否则为前景.当前帧中所有前景像素的集合视
为运动目标.
3 试验结果与分析
为了验证文中提出算法的有效性,选取德国卡尔斯鲁厄大学的KOGS/IAKS网站提供的城市交通视频序列图像作为测试数据,与C.Stauffer等人提出的基于GMM
的背景建模方法[7]做比较试验.选择相同的参数,设定混和高斯模型中高斯分布的个数K=3,学习速率α=0.01,高斯模型的初始均值μi=Xi,0的均方差σi=6,匹配参数 D=2.5,前景检测阈值T=0.75.在不同气候条件下,GMM算法法和文中算法对城市交通视频序列图像运动车辆检测结果,如图1所示.
图1a为正常条件下的交通视频图像序列中第591帧图像,图1b,c分别为
GMM算法和文中算法的检测结果;图1d为大雾条件下的交通视频图像序列中第
43帧图像,图1e,f分别为GMM算法和文中算法的检测结果;图1g为下雪条件下的交通视频图像序列中第154帧图像,图1h,i分别为GMM算法和文中算法
的检测结果.从检测结果看,在气候条件正常情况下,2种方法的分割结果都好于
大雾和下雪的条件下的结果,而在下雪的情况下,检测结果最差,这是因为动态场景的变换对检测结果有一定的影响;在相同的气候条件下,GMM算法检测结果含较多噪声点,检测出的目标较模糊,而文中提出的方法由于考虑到了空间上的连续性及其自适应的学习速率的选取,使得该方法对噪声有较好的抑制作用,得到了满意的车辆的检测结果.
为了量化评估各种算法的检测效果,定义正确率与误判率如下:
图1 不同气候条件下的城市交通视频序列图像运动车辆检测结果Fig.1 Results of moving vehicle detection of urban traffic video sequences under different climate conditions
表1为不同气候条件下,分别选取20帧检测结果,计算其平均正确率和平均误判率的比较结果,运动车辆的真实分割结果通过人工获取.从表1可以看出,在正常气候条件情况下,GMM算法与文中算法在平均正确率与平均误判率比较接近,但在特殊条件下,文中算法比传统的GMM算法好,特别在雪天条件下,文中算法明显优于GMM算法的正确率和误判率,这是因为,文中算法利用了像素的空间信息,使得该方法对噪声具有鲁棒性.
表1 不同气候条件下运动车辆检测结果量化比较Tab.1 Comparison of moving vehicle detection results under different climate conditions %气候GMM 算法文中算法正确率误判率正确率误判率正常80.27 2.81 83.73 2.45大雾 69.37 4.18 78.41 3.26雪天53.84 7.26 72.95 5.32
4 结论
提出了一种基于空间邻域加权的高斯混合模型运动车辆检测算法,该方法定义了空间邻域信息函数,并设计了符合归一性空间信息加权类概率,利用这种加权概率表达式,可以在分类过程中加入空间邻域信息.通过不同条件下的交通视频检测图像
序列的对比试验,验证了算法具有满意的分割效果.
参考文献(References)
【相关文献】
[1]Meier R,Harrington A,Cahill V.A framework for integrating existing and novel intelligent transportation systems[C]∥IEEE Conference on Intelligent Transportation Systemss.Piscataway:IEEE,2005:650-655.
[2]Tang Shuming,Wang Feiyue,Wang Gang.Development and research of intelligent transportation systems in China's tenth five-year plan[C]∥Proceedings of the 8th International IEEE Conference on Intelligent Transportation Systems.Piscataway:IEEE,2006:377-382.
[3]Wang Yang.Real-time moving vehicle detection with cast shadow removal in video based on conditional random field[J].IEEE Transactions on Circuits and Systems for Video Technology,2009,19(3):437-441.
[4]Mohana H S,Ashwathakumar M,Shivakumar G.Vehicle detection and counting by using real time traffic flux through differential technique and performance evaluation[C]∥International Conference on Advanced Computer Control.Piscataway:IEEE Computer Society,2009:791-795.
[5]Pornpanomchai C,Liamsanguan T,Vannakosit V.Vehicle detection and counting from a video frame[C]∥Proceedings of the 2008 International Conference on Wavelet Analysis and Pattern Recognition.Piscataway:IEEE,2008:356-361.
[6]Wren C,Azarbayejani A,Darrell T,et al.Pfinder:realtime tracking of the human body[J].IEEE Transactions on Patter Attern Analysis and Machine Intelligence,1996,2615:89-98.
[7]Stauffer C,Eric W,Grimson L.Learning patterns of activity using real-time tracking [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(8):747-757.
[8]Lee D S.Effective gaussian mixture learning for video background subtraction [J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(5):827-832.
[9]万成凯,袁保宗,苗振江.一种基于活动轮廓和Gauss背景模型的固定摄像机运动目标分割方法[J].中国科学:F 辑:信息科学,2009,39(4):391-396.Wan Chengkai, Yuan Baozong,
Miao Zhenjiang.A moving object segmentation method based active contour model and Gauss background model with fixed camera[J].Science in China:Series F:Information Sciences,2009,39(4):391-396.(in Chinese)
[10]宋余庆,王春红,陈健美,等.基于高斯混合密度模型的医学图像聚类方法[J].江苏大学学报:自然科学版,2009,30(3):293-296.Song Yuqing,Wang Chunhong,Chen Jianmei,et al.Clustering of medical image based on gaussian mixture density model[J].Journal of Jiangsu University:Natural Science Edition,2009,30(3):293-296.(in Chinese)。

相关文档
最新文档