视频内容分析在智能交通监控系统中的应用

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

视频内容分析在智能交通监控系统中的应用

摘要:视频检测技术在智能交通方面的应用,代表着道路交通检测技术的一种新的发展趋势。本文提出了一种高性能、多功能的道路交通视频检测方法,采用背景消除、多目标跟踪、定制检测虚拟线等手段来检测和处理在道路多车道上的车辆通行情况,并及时统计和分析道路交通的状况,为智能交通提供基本信息;运用动态图像理解技术分析道路上的车辆事故、车辆违章等事件,为交通管理提供了一种有效、灵活、性价比高的道路交通监控手段。

关键词:智能交通,道路视频监控,视频内容分析

1引言

嵌入式计算、无线通信和传感器技术的迅速发展和结合,使人们能几乎是无所不在地采集、传输和存储道路视音频数据。如果对这些海量的视频数据能进行及时准确的分析和理解,就能实时获取交通基本数据,对交通拥堵和交通事故进行预测,在智能交通领域发挥重要作用。但是目前对各种交通事件和异常情况的视频监控主要还是依靠人工判断,使得这些数据难以得到充分的利用。因此基于动态图像理解的智能交通监控技术开发高效的系统已经成为目前计算机视觉领域极富有挑战性的科学问题之一。

当前,交通信息检测的方式主要有磁频车辆检测、波频车辆检测和视频车辆检测三种。磁频车辆检测如环形线圈检测器需要安装特定的装置,也许首次的投资少,但维护费用大且麻烦;波频车辆检测则容易受到干扰;而视频检测作为交通参数采集的一个新的检测方式,它与其他的车辆检测方式相比具有以下的优点:(1)检测手段完备;(2)检测区域较大;(3)安装无需接触公路实体。随着计算机软硬件技术和图像处理、人工智能、模式识别等技术不断发展,视频检测的实时性和正确率已达到了较满意的程度,被认为是最有发展前途的检测方式之一,目前受到交通经营、管理部门和研究人员越来越密切关注[1-2]。

2论文概述

2.1研究结果

本文利用视频图像处理的方式对道路的情况进行视频监控,通过动态图像的理解获取道路基本信息,包括交通流量、车辆速度以及占有率等重要交通流数据;此外通过图像高级语义来分析车辆的违规行为,如超速、占用车道及逆向行驶;在线检测车道上的异常情况,如交通堵塞、交通事故的发生。实验结果表明,本文所开发的系统具有准确性高、实时性好的特点。

2.2相关的国内外研究状况

在智能交通视频检测方面由于有诸多优点,近年来已成为国内外学者关注的热点[3,4,5,6]。目前绝大多数的研究方式都是先进行视频采集,然后对视频文件进行处理和分析,然后把结果进行显示,或者传输给其他处理分析程序使用或者存储以备下次处理分析使用。而动态图像理解属于人工智能学科中一个非常重要的分支。人工智能是模仿人类思维行为的一门学科,那么是否可以将人类的思维方式应用到我们的视频检测中去呢?

Mubarak Shah等学者在国际计算机视觉权威杂志“International Journal of Computer Vision”期刊上撰文[7]指出:21世纪的计算机视觉研究将从今天的静态图像研究转向动态图像序列分析或者说是动态图像理解。对动态视频监控主要的目标任务是实现监控对象的行为

进行语义化描述,即被专家学者们称之为“逆好莱坞问题”(Inverse Hollywood problem)[12]。Kojima等学者[8]指出:要在动态图像语义鸿沟之间用架桥的方式(bridge a semantic gap)来解决“逆好莱坞问题”。动态图像序列的语义理解是智能视觉监控的关键理论和方法,是实现智能交通的重要途径,国内外许多学者发表了各个领域中的研究成果[5,6]。

2.3系统的理论架构

从以上研究成果中,可以知道世界各国学者们把注意力集中在现存的、比较容易采集到的动态视频图像理解方面,因此大多数的论文都是集中在道路车辆的监控、智能安保等领域。本文中提出了一个对所关心的对象的行为、事件及情景等通过高级语义进行描述的系统理论构架,并通过该框架来解析道路视频监控一些问题。

动态图像理解问题从高层语义的角度来看可以认为是解释一个情景语义问题,以人的思考方式来说,人们从视频图像中首先关心是获取关心的对象信息,然后通过解析获取所关心对象的状态或者事件信息,最后通过对其一个个状态或者事件信息进行分析和抽象得到我们所需要的理解结果。本文的目的也是希望机器也能具备与人的思考方式一样管理着道路交通以及交通安全与调度。其中关键问题是如何将对象跟状态或者事件进行关联,再将状态或者事件跟对象行为语义进行关联,最后对视频情景作出语义解释。

本文根据“解决逆好莱坞问题”的视频处理思路将图像的语义分为:底层特征层、对象层和概念层;将图像理解和处理中分为四个阶段,分别是:视觉感知处理、概念化处理、形式化处理和行为语义处理,在这个四个阶段处理研究中所获得的一些方法我们就称为中间件,分别是基础中间件、应用中间件、面向高层中间件和情景动作规则中间件,如图1所示。除以上三部分以外,还有很重要的一部分即为层与层之间的语义关联算法,这也是我们要重点研究的一部分。

2.3.1底层特征层

底层特征层主要涉及到基于对象的一些基本属性,如颜色、形状、纹理和空间关系等。在这个层面上的知识和信息获取手段属于低级视觉感知处理,本文中将实现各种视觉感知处理的一些算法归属于基础中间件。

2.3.2对象层

从图l中可以看出对象层处在底层特征层与概念层之间,起到承上启下的作用,因此在不同层次之间或者层内之间必须建立语义映射关系。在对象层中我们关心的有对象(Object)和事件(Event)两类。对象又可以分为可以看作是静态对象的场景对象和可以看作是动态对象的前景对象,而事件(Event)则是对象之间发生了新的动态联系。如本文所关心的静态对象是道路,活动对象是车和交通信号灯,利用相关关联模型我们就可以得到在某帧图像中诸如车辆处于哪条车道上,车辆现在的所处的位置等等事件或者状态。

这个层面上需要经过概念化和形式化两个处理步骤,前者主要的任务是要识别出所关心的前景对象,并从底层特征层所得到的属性与前景对象进行关联;后者主要的任务是获取该对象的一些事件或者状态,为提取所关心对象的行为语义作好准备。前景对象的事件或者状态必须通过动态过程才能展现出来,因此在前者与后者之间必须建立一种动态关联。在这个层次上,本文中将概念化处理的各种算法归属于应用中间件;将形式化处理的各种算法归属于面向高层应用的中间件。

相关文档
最新文档