基于视频的交通事故汽车车速计算研究汽车服务毕业论
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
基于视频的交通事故汽车车速计算研究
前言
基于视频的交通事故汽车车速[1]计算研究是一种新型的车速研究方式,是事故发生后通过某种手段对车速的还原, 简称为“视频测速”。
“视频测速”是在没有任何的交通测速的情况下,仅仅对某时段采集的视频进行分析与仿真,从而计算出车辆在发生事故之前的速度。
视频测速方法比起普通路上的测速仪[2]的方法,具有普通测速仪没有的优点:
★ 可以不使用专用的测速设备的情况下, 可以把成本降到最低;
★ 减少了一些地方不必要的普通测速设备,把交通事故透明化;
★安装简单,使用方便,不仅可以使用固定某一点测速,还可以动态测速;
★对速度精确较高,避免了不必要的误差。
1 课题设计的背景、目的和意义
1.1课题设计的背景
在当今这个社会,“路”交织错落,而人们物质条件也越来越好。
所以,出行“车”
成为了当今社会一道亮丽的风景线。
但是,由于人们安全意识没有提高,对自身保护没有注意。
所以交通事故一起接一起,而出了事故之后又是一波交通事故纠纷,孰是孰非?那个也说不清楚,而本设计“基于视频的交通事故汽车车速计算研究”
就是对交通事故后对碰撞前车速计算[3]的研究,避免盲区,在没有交通安全测速地带也可以计算出车速。
1.2课题设计的目的和意义
本项目的设计目的:对交通事故后,通过本设计对交通事故之前的车速测算,可以有效地避免交通安全控制区域之外的盲区无法测定车速而造成纠纷,对交警划分事故也有很大的帮助,大大减少了事故纠纷的时间,同时避免了交通事故造成车辆堵塞。
在这个科技发达的年代,人们的生活水平的不断地提高,人们出行选择交通运输方式很多,但是在选择出行方式的同时也需要选择安全可靠的出行,人们的人身安全才会得到保障。
本项目就是以“基于视频的交通事故汽车车速计算研究[4]”这样的目标为出发点,结合自己所学知识,学有所用来达到要求。
这样可以减轻交通压力,也可以减少交警的执事,也为人们遇到事故后减少纠纷时间。
2 基于视频计算车速的理论分析
2.1 图像处理[5]
图像去噪处理、图像增强处理、图像复原处理等为常用的图像处理技术。
图像滤掉噪声可以对照片质量不好的图像进行处理,对比度可以有很大的提高,图像的可读度也可以被增强,这样处理过后可以为后续的运动目标及特征点提取一份比较高质量的图像。
2.1.1 图像处理的基础知识
★图像灰度[6]
颜色三原色是由红(R),绿(G),蓝(B)三原色的不同组合而成,如图2.1.1-1中所有颜色都可以由三原色组成。
而亮度、饱和度和色调是颜色区分的3种基本量。
颜色的亮度与所研究物体的反射率成正比例关系。
色调与混合光谱中的主要光波长相关。
色调的纯度影响饱和度。
而灰度图像常常被用于图像处理,这样经过处理后就不含有色彩信息了,但含有一种亮度信息。
人们把亮度值进行分级,从零到二百五十五共二百五十六个级别,最暗的黑色由零代表,最亮的白色由二百五十五代表。
图2.1.1-1 色彩灰度对照图
★图像运算[7]
在matlab这款软件中,他将数字图像数据存放在一个矩阵中,矩阵的每个数值都对应着一个像素点的像素值。
Matlab软件进行图像处理时,所包含了代数运算、点运算、
为代数运算,这样可以实现两个及几个图像相互叠加或者差分。
通过某种手段将图像的大小改变、成比例的缩放或者把图像旋转一个位置的运算叫做几何运算。
而输入像素至关重要,他决定着输出图像的灰度值,经过这样运算过后称点运算。
点运算其实就是将灰度变换成函数确定。
即:(,)[(,)]B x y f A x y = (2.1.1-1)
式中,A (x ,y )是某点运算前的图像像素值;B(x ,y)是点运算后的图像值。
f 是对A (x ,y )的一种映射函数,即GST 函数。
根据映射方式不同,点运算分成三种运算--线性点运算、非线性点运算和直方图修正。
当映射函数为线性时,即()B f A A αβ==+ (2.1.1-2)
当1α=,0β=时,输入图像是不产生变化的;当1α=,0β≠时,增加或者降低图像的灰度;当1α>时,增大输入图像的对比度;当01α<<是,减小输出图像的对比度,当0α<时,图像进行相反变化,亮变暗,暗变亮,即图像求补。
[9]★ 图像二值化[8]
将图像上的像素点的灰度值设置为零或二百五十五就是将图像进行二值化,这样处理后让图像黑白对比明显。
假设 m 为二值化之阀, f(x,y)表示图像像素坐标 (x,y) 的灰度值,若 f(x,y)>m ,f(x,y) 为 二百五十五 ;若f(x,y) < m 则 f(x,y) 设为 零。
换句话说,把一个图像拿去进行二值化处理,就是让图像变得简单,减小数据量,能凸显出需要研究的目标的轮廓。
图2.1.1-2 原图 图2.1.1-3 二值图(黑白互换后)
现在市场不管哪款摄像机在拍摄图像时,都会带来不同程度的系统噪声,这种主要有光线扰动、数字化过程中产生的噪声、信号摄像机抖动等,通过实验表明,椒盐噪声是最影响拍摄到的图像,这对我们的研究是大大的绊脚石,所以我们就要对所拍摄的图像进行去噪处理。
图像去噪简而言之地说就是减少数字图像中噪声的过程。
维纳滤波、中值滤波、均值值滤波等也是我们常见的图像去噪方法。
★ 自适应维纳滤波
为了保存清晰的图像,我们必须把因为运动带来的噪声去除掉。
思路为假设图像g(x, y)是由真实图像f (x, y)和噪声图像n(x, y)构成的,输出的图像I (x, y)尽可能的降低噪声信号n(x, y),同时恢复出真实图像f (x, y)。
定义误差信号: e(x,y)=I(x,y)-n(x,y) (2.1.2-1) 均方误差是平均误差的度量:
211(,)M N
x y MSE e x y ===∑∑ (2.1.2-2)
这种方法的滤波效果比均值滤波器效果要好,对保留图像的边缘和其他高频部分很有用,不过计算量较大。
但是我们常常处理白噪声的图像就是用维纳滤波器。
图2.1.2-1 原截图 图2.1.2-2 原截图维纳滤波 ★ 中值滤波
二维中值滤波输出为g (x,y )=med{f(x-k,y-l),(k,l ∈W)} ,其中,f(x,y),g(x,y)分别为原始图像和处理后图像。
W 为二维模板,通常为2*2,3*3区域,也可以是不同的的形状,如线状,圆形,十字形,圆环形等。
图2.1.2-3 噪声图图2.1.2-4 噪声图中值滤波
中值滤波可以保护图像的边缘不会变的模糊不清,也就是对边界影响较小,总之中值滤波法能很好的抑制脉冲干扰和椒盐类的噪声。
★均值滤波
在图像上,对待处理像素给定一个模板,该模板包含了其邻近的像素。
将模板中的全体像素的均值代替原来点的像素。
该法适用于去除通过扫描得到的图象中的颗粒噪声领域,它能抑制噪声,同时由于平均而引起了模糊现象,模糊程度与领域半径成正比。
图2.1.2-5 噪声图均值滤波
2.1.3 数学形态学图像处理
数学形态学(mathematical morphology)是一种应用于图像处理和模式识别领域的新的方法。
指将数字形态学作为工具从图像中提取对于表达和描绘区域形状有用处的图像分量,比如边界、骨架以及凸壳,还包括用于预处理或后处理的形态学过滤、细化和修剪等。
其基本思想是利用一个结构元素来收集图像的信息。
其基本运算有腐蚀、膨胀、开启和闭合。
腐蚀和膨胀与集合以及集合的运算密切相关。
★ 腐蚀和膨胀
腐蚀能够把图像的边界融掉,但是图像的结构不变,相当于把图像进行缩小。
与腐蚀有相反作用的就是膨胀,膨胀能使物体边界过大,膨胀通常用于将图像中原本断裂的同一物体桥接起来。
假设Ω为二维欧几里德空间,图像A 是Ω 的一个子集,结构元素B 也是Ω 的一个二值图子集,b ∈Ω是欧式空间的一个点。
[10]膨胀:ˆ{.}{[()]}}x
A B a b a Ab B x B IA A ⊕=+∈∈=⊆ (2.1.3-1) 腐蚀:e {}Z b A B z B A IA =∈Ω⊆= (2.1.3-2)
图2.1.3-1 二值图腐蚀 图2.1.3-2 值图膨胀
2.2 运动目标提取
运动目标提取换句话说就是提取有用的图像即对碰撞后的车辆进行提取,这样就不会提取出不必要的图像,提取出来的图像多数都会包含需要用到的图像。
光流法、背景差分法、帧间差分法是人们常用的提取运动目标的方法。
2.2.1 背景差分法
背景差分法是指最先提取出需要的背景,再将提取出来的图像进行二值化,再将处理后的图像像素减去之前的像素,进而运用阈值分离出运动目标。
该法有着原理及算法简单,所得的结果直接反应了车辆运动之后的位置,车辆大小以及车辆的形状等我们必须获得的信息。
但是这种处理方法会因为天气和阳光的变化而变化。
图2.2.1-1 背景图图2.2.1-2 当前图图2.2.1-3 背景差分后
从图2.2.1-3背景差分后的图片也可以看出,只要运动的物体或者光线的变化或者图像最上方用于显示时间的文字的变化都会差分出来,这样造成结果是寻找待测目标物体特征点比较困难。
2.2.2 帧间差分法
帧间差分法是指提取的相近的两张图像帧进行相减,但是相邻的两张图像的背景差距不是很大,且联系很近,通过计算帧间图像像素间的很小偏差来找出运动目标。
该算法有着算法优点在于对光线变化要求不高,程序不怎么复杂,实现也相对简单,能够在不同的环境运用。
但是缺点就是不能提取出一张完整的区域,它只能对图像的边界进行提取。
而且物体快速运动,时间间隔取得较短时会检测出两个分开的物体。
物体运动较慢,前后两帧中几乎重叠时,不能提取出物体。
图2.2.2-1 第一帧图像图2.2.2-2 第二帧图像图2.2.2-3 帧差法后
2.2.3 光流法
光流法与磁场同理,就是对图像中的每一个像素点赋予一个速度矢量,形成一个运动场,不过是图像运动场,在某一时刻,运动时特定的,图像上的点与三维物体上的点
通过投影相对应,根据各个像素点的速度矢量特征,即可以对图像进行动态分析。
表2.2.2-1 三种方法的技术比较
2.2.4 背景差分法结合帧间差分法
在文献[5]的启示下,本次设计也尝试将背景差法和帧间差法结合了起来, 使它们优势互补, 从而克服相互的弱点。
既能获得完整图像,又能消除背景光线等因素的干扰,因为背景环境不是一成不变的。
其步骤为:把当前帧减去背景记为b1,把第二帧减去背景帧记为b2,对b1、b2分别进行预处理,将b2与b1相减,通过阈值法提取运动目标。
但是结果没能达到预期效果,本文提出交互式运动目标提取的方法。
图2.2.4-1 帧差法和背景差分法相结合示意图
2.2.5 交互式提取法
可以通过人工选取自己所需要的运动目标区域的方法叫做交互式的运动目标提取
方法,在提取出的这个区域中在对图像进行各种处理,就可以提取出所需要的运动目标。
这样处理过后可以排除因为环境变化而产生的干扰,而且可以把汽车在运动过程中由于灯光所产生的阴影和光线以及与车辆较近的物体影响一并排除。
图2.2.5-1 区域选择图2.2.5-2 交互式提取图像
图2.2.5-1中红色框住的部分就是我们需要处理的部分。
从图2.2.5-2中得到的出项可以看出,该方法可以随意的提取出自己所需要的目标,并且不会代入其他的运动目标,比如行人或者是其他运动的物体带来的影响。
这样处理过后对后面的工作开展减少了很多麻烦。
图2.2.5-2中的白色区域内的点为该运动目标的特征点(质心)。
2.3 特征点选取
为了得到某一点运动的轨迹。
我们选取大量的帧来处理,处理过后并加以综合,就可以得到自己所需要的图像。
而特征点选取分为三种方法。
2.3.1 直接选取
直接选取是指在图像上根据操作者的经验判断拾取特定的点,如车灯、车轮、车牌、几何图形的端点等。
Matlab中用ginput函数得到所需点的坐标。
直接选取的方法不仅带来较大的认为误差,而且耗费操作者的时间。
该法只适用于图像质量好,分辨率高,运动目标特征点明显的情况下。
误差的减小可以通过先放大图像,再拾取特征点的方法来实现。
即便如此,此法误差依然较大,故本设计只做尝试,并没采用。
2.3.2 选取运动目标的质心
在拍摄的图像肯定是连连续续的,看起来就像是运动的,假设相近的两张帧上面的物体的位置变化不是很大,并且这个物体运动的方向也是不会很大。
利用交互式提取运动车辆的图像后,在对运动车辆求取质心。
质心的坐标为: (,)
(,)
w n
w n
x f x y f x y x ∙-
∑=∑ (2.3.2-1)
(,)
(,)
w n
w n
y f x y f x y y ∙-
∑=∑ (2.3.2-2)
图22.3.2-1 运动目标的质心
2.3.3 选取运动目标最小外接矩形的几何中心
若物体边界已知,用其外接矩形的尺寸来刻画它的长宽是最简单的方法。
对不同方向的物体,我们不管他是站着的还是睡着的。
我们选取一个点画一个XY 轴,然后通过计算可以计算出在X 和Y 轴方向上的长度和宽度,这样的外接矩形是物体的最小外接矩形。
计算最小外接矩形的一种方法是,将物体从零度到九十度夹角内每一次变化三度进行旋转。
每一次旋转过后计算出在X 、Y 轴上的长度和宽度,当旋转到某一个夹角时外接矩形就可以达到最小。
图2.3.3-1 运动目标最小外接矩形中心 2.4 记录运动轨迹
要想计算汽车的车速,就需要知道汽车的运动轨迹,这样可以很好的分析出车辆速度的方向是怎么改变的。
2.4.1 最小二乘法拟合
对运动车辆特征点提取,得到一组n 帧图像中运动目标质心的坐标:
12,,...,n
x x x x =
(2.4.1-1)
12,,...,n
y y y y =
(2.4.1-2)
可用直线
y a bx =+
(2.4.1-3)
来逼近这些点,在数理统计上就是用最小二乘法求出回归系数b 和回归常数a 的问题,这个方法以及各暗中假定
i
x 是准确的,
i
y 有误差,只有0,0x y ∆=∆≠。
只有x
∆相对与y ∆很小的情况下,所求回归系数才正确。
用
12,,...,n
εεε表示
12,,...,n
y y y 的误差,应有:
111()y a bx ε=-+ (2.4.1-4)
222()y a bx ε=-+ (2.4.1-5)
……
()n n n y a bx ε=-+ (2.4.1-6)
按最小二乘原理,直线度最佳值应该满足:
2
21
1
()min
n
n
i
i i i i y a bx ε
===--=∑∑ (2.4.1-7)
为了求2i
ε
∑
的最小值,把(2.4.1-7)式对a 和b 求偏导数(把i
x 和
i
y 看成常量),
并令一阶偏导数为零,有:
2
11()2()0n n
i i i i i y a bx a ε==∂=---=∂∑∑ 2
11
()2()0n n i i i i i i y a bx x b ε==∂=---=∂∑∑ 整理后得到:
2
xy nx y b x nx x -⋅=
-⋅∑∑
(2.4.1-8)
a y bx =- (2.4.1-9)
方程y a bx =+为所求的线性回归方程,得到的曲线为车辆在视频上的运动轨
迹。
[13]
图2.4.1-1 运动轨迹提取图
2.4.2 实际点投影到拟合曲线上
计算车辆速度时,不能用实际点的坐标计算车辆运行的位移,这样做无法避免系统带来的误差,为降低误差必须将实际点投影到拟合曲线上,用实际点对应到曲线上的点求出行驶的位移。
投影方法:记由方程(2.4.1-3)产生的拟合曲线为L1,车辆质心的实际点的坐标为
00(,)
x y ,求取通过A 点和垂直于L1的直线L2的方程:
001()y x x y b =--+
(2.4.2-1) 联立公式(2.4.1-3)和公式(2.4.2-1)得到投影点
'A ''
00(,)
x y 的坐标:
'
00021
x ay ab x a +-=
+ (2.4.2-2)
22'
000
21bx a y a b y a +-=
+
(2.4.2-3) 2.5 图像距离转换到实际距离
通过以上处理方法得到的距离都仅仅是图片上的距离,现在我们就要把图像距离转换成实际距离。
这就要给图像赋予一个三维空间轴,即XYZ 轴。
2.5.1 摄像机模型
图2.5.1-1 中心透视投影模型(图片源于文献
[8]
)
其中,(x ,y)为P 点在成像平面坐标系下的坐标,(Xc ,Yc ,Zc)为空间点P 在摄像机坐标系下的坐标。
图2.5.1-2 摄像机坐标系与世界坐标系(本图源于文献[8])
2.5.2 摄影机标定
就现有的研究成果而言,摄像机有很多种标定,但是主要的就只有基于主动视觉的标定方法、传统标定方法和自标定方法[8]。
本文采用的摄影机标定方法采用文献[7]中提出的标定方法。
★标定原理
采用摄影机中心透视成像原理。
原理图如下:
图2.5.2-3 透视关系推导图(源于文献[7])
其中D、E、F三点分别人为自己标定的三个点,其所对应的实际道路路面为A、B、C,在视频上找一个点M(这是第一种情况,M点位于D点右侧),M点所对应的路面上的点为N,NA记为所求的实际距离[7]。
文献[7] NA的计算公式有一下四种情况:
第一种情况,M 点在D 点右边:2AB EF MD
EF DE DE DE MD DE MD EF NA ∙∙∙∙+∙+∙-∙=(2.5.2-1)
第二种情况,M 点在F 点左边:2AB EF MD
EF DE DE DE MD DE MD EF
NA ∙∙∙∙+∙+∙-∙=
(2.5.2-2)
第三种情况,M 点DE 之间:
2AB EF MD
EF DE DE DE MD DE MD EF NA ∙∙∙∙+∙-∙+∙= (2.5.2-3)
第四种情况,M 点在EF 之间:
2AB EF MD
EF DE EF EF MD DE MD EF
NA ∙∙∙∙+∙+∙-∙=
(2.5.2-4)
按照该文献的方法,经过笔者计算和实验验证发现公式(2.5.2-2)和公式(2.5.2-4)是错误的,应该与公式(2.5.2-3)相同,笔者所得到的情况分两种:第一种情况,M 点在D 点右边:2AB EF MD
EF DE DE DE MD DE MD EF NA ∙∙∙∙+∙+∙-∙= (2.5.2-5)
第二种情况,M 点在D 点左边:
2AB EF MD
EF DE DE DE MD DE MD EF
NA ∙∙∙∙+∙-∙+∙=
(2.5.2-6)
本文摄像机标定采用文献[7] 的这种方法,其标定条件为:
F 点、E 点、D 点三点可以形成一条直线,这条线就称为标定线,标定线可以选取很多点就为标定,比如说其他距离已知的物体、车体本身、人行横道线、道路标记线或标记等。
根据这种思想,如图2.23所示,若车辆在t1帧位于N1处,在t2帧位于N 处,则车辆在t1、t2之间的速度为:121
AN AN
v t t -=
- (2.5.2-7)
★ 原理的实验验证
由于笔者和文献[7]在算法公式上出现分歧,因此针对第四中情况做以下实验作为验证。
如图3.1所示:该图为某道路,经测量道路标记线长为2m ,间隔4m ,则相邻叉形符号相邻间隔6m ,要测的距离为圆形标记到最近叉形符号距离(8m )。
经实验得出:文献算法结果为2.462m ,误差69.2%,误差过大;本文算法结果7.928m ,误差为0.9%,误差在允许范围。
因此公式(2.5.2-4)应修正成公式(2.5.2-6),用同样的实验也可以得出公式(2.5.2-2)应修正成公式(2.5.2-6)的结论。
图2.5.2-4 文献[7]算法结果截图
图2.5.2-5 本文算法结果截图图2.5.2-6 实验场景图
2.6 本章小结
由于道路法规定以及车辆的速度较快,对视频的采集时间又不是很长,可以知道车辆不可能在这个极短的时间内来改变速度或者改变车辆原始行驶的方向,因此我们可以认为在这么短的时间内车辆是匀速行驶的。
根据本章节的分析,车速计算大致过程为:首先图形处理,再提取运动目标,然后提取其特征点,并记录其运动轨迹,最后我们就可以把图像速度变成实际的点,从而计算出车辆的行驶速度。
图2.6-1为车速计算技术路线图:
图2.6-1 视频法技术路线图
3 案例应用
3.1 事故背景简介
3.1.1 基本情况
2012年2月26日下午1点27分许,一辆小车和一架摩的在某市的一个某十字路口发生重大的交通事故。
交通部分提供了事故当时的录像以及现场拍摄的图片和交通信号灯的相关信息,要求委托单位对该交通事故进行分析并得出相关结论。
3.1.2 视频录像
提供的监控视频图像显示“02-26-2012 星期日青白江–巨石大道华金路口”等字样。
视频图像连续、清楚,能够满足鉴定要求。
视频开始于13:27:27,终止于13:29:29。
牌照号为川AXXXXX的高尔牌轿车由视频画面左侧进入监控范围,在视频画面出现的时间为13:28:00(视频画面显示)。
3.1.3 某交通事故鉴定所的依据
该监控视频帧率f为二十五帧/秒。
川AXXXXX牌照的小车由监控视频画面左侧进入监控范围开始,从事故开始到结束一个拍摄到3到 3.5帧,这家小车的总长度L 为
3.895m。
将上述参数带入公式
6.3
)
/(⨯
=
f
n
L
v
,则该车在事故发生前的行驶速度约
100.2~116.9km/h。
3.2 本文算法
3.2.1 matlab界面简介
如图3.2.1-1所示,本GUI界面能实现的功能:读图、图片缩放、作直线和平行线、图片处理、特征点提取、运动轨迹拟合、求平均速度、求任意时间段的速度,作速度曲线等。
图3.2.1-1 matlab 操作界面
3.2.2 计算过程及分析 ★ 输入已知距离
本案例所提供的资料中没有其他道路标记线等已知距离的标记物,只有车长3.895m 的是已知的,因此把经过车辆主轴线上的车头、车尾及中点作为标定点,车辆行驶轨迹作为标定线。
其他案例如出现图2.5.2-3的场景,完全可以用地标线作为标定线。
★ 输入中点修正系数
本案例中由于摄像机摄像方向并非完全正对着车辆运动方向完全垂直,所拍摄的车辆并非车的正侧面,存在一定的角度因此由图像上车头标记点坐标和车尾标记点坐标算出的中点并非车体实际中点,需要进行左右修正。
A 为标定点1,坐标是(,)A A x y ,B 为标定点2,坐标为(,)B B x y ,中点修正系数为z 。
那么中心标定点为:
()1A B z x x x z
=∙+- (3.2.2-1)
()1A B z y y y z =∙+- (3.2.2-2)
若不进行中点修正,如图得到的速度曲线显示速度先增大后减小再增大,与实际速度逐渐减小相违背。
图3.2.2-1 不进行中点修正得到的速度曲线图
★ 输入图片间时
图片间时是指相隔图片间所取的帧数,以25帧/s 的视频为例,若两张图片的间时为n 帧,那么运动车辆经过的时间为0.04n ∙秒,本案例为每帧一截图,因此应该输入的图片间时为1。
★ 特征点选取
由于图像处理的不同,将车的特征点的选取分为彩车提取和白车提取。
本案例的车体颜色为蓝色,因此点击“彩车特征提取”,在出现的对话框中选择该案例视频截图所在文件夹,接着在界面上出现的画面进行交互式提取方法选取车辆所在区域,图片读完后会自动形成车辆运动拟合曲线。
如下图所示:
第一帧:
第二帧:
……
第n帧:
空格键后得到拟合曲线:
图3.2.2-2 特征点提取图示
★选择图片
选择质量好,车体侧面尽量正对摄像机的图片作为标定图片。
点击“读图”,在出现的对话框中选择图片。
图3.2.2-3 读图图示
★ 第一次标定
点击“标定”,将出现的绿色直线移动到车体附近,使用“放大”功能使该直线端点尽量靠近红色最小外接矩形左右边的外围,并尽量使直线与拟合曲线重合。
按下空格键后,标定完成,“误差”右边的文本框还会出现一个误差。
误差解释:若d2为最小矩形的长度,d1为绿色直线标定后的长度,则误差为: 21100%2
d d wc d -=∙ (3.2.2-1) 若wc 为负,则所求速度比真实速度小;若wc 为正,所求速度比真实速度大。
真实速度为:
v =v wc 测真(1-)
(3.2.2-2) 标定过程图示:
图3.2.2-4 移动用于标定的直线
图3.2.2-5 左端点选定 图3.2.2-6 右端点选定
图3.2.2-7 矩形外标定结果 ★ 作速度曲线图
点击“速度曲线图”,就会出现车辆整个运行过程中各个时刻的速度和显示平均速度。
速度来源计算公式求导,根据t-1帧和t+1帧时的特征点的坐标求出位移,将此位移转换到实际距离S ,即第t 帧的速度公式为:3.645(/)[(1)(1)]0.04
t S
v S km h t t ∙=
=+-+∙ (3.2.2-3)
根据公式(3.2.2-3)对t+1和t-1进行变换也可以求出任意帧数间的速度大小。
在标定下方文本框输入“第1张—第4张”,1和4为输入的时间,得到“速度”右边的结果,表示第1帧到第4帧的车辆速度为105km/h 。
本案第一次标定得到的速度数据和速度曲线:
表3.2.2-1 第一次矩形外标定数据表
图3.2.2-8 第一次矩形外标定速度曲线图
★第二次标定并得到速度曲线
在红色矩形内部按照步骤(6)的方法进行二次标定,并得到:
表3..2.2-2 第二次矩形内标定数据表
3.2.3 结果分析
由图3.2.2-8和图3.2.2-9可知:第一次标定得到的平均速度为96.8km/h,误差为
-0.48%;第二次标定得到的平均速度为99.5km/h,误差为2.27%。
把这两次得到的测量值带入公式(3.2.2-2)可得到理论上的真实值为97.3km/h。
鉴定结果为:该车在前一到十三帧的平均速度在96.8km/h~99.5km/h。
最高速度为:104.4km/h~107.5km/h。
这与传统的方法相比得出的结果更加精准,误差也很小。
3.2.4 误差分析
本方法有以下几种误差:
☆人为误差:人为误差主要出现在中点修正系数的选取上。
此误差可以根据研究。