一种基于单目视觉的车辆碰撞预警方法及系统[发明专利]
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 202011243170.4
(22)申请日 2020.11.10
(71)申请人 中科海微(北京)科技有限公司
地址 100190 北京市海淀区科学院南路6号
中国科学院计算技术研究所科研综合
楼11层1146室
(72)发明人 曹玉社 许亮 李峰
(74)专利代理机构 上海恒慧知识产权代理事务
所(特殊普通合伙) 31317
代理人 刘翠 徐红银
(51)Int.Cl.
G08G 1/16(2006.01)
G06K 9/00(2006.01)
B60W 50/14(2020.01)
B60W 40/00(2006.01)
B60W 30/08(2012.01)G06K 9/62(2006.01)G06N 3/08(2006.01)G06T 7/11(2017.01)G06T 7/20(2017.01)
(54)发明名称一种基于单目视觉的车辆碰撞预警方法及系统(57)摘要本发明提供了一种基于单目视觉的车辆碰撞预警方法及系统,获取前方视野图像数据,对获取的图像数据进行目标检测;设定碰撞风险区域范围;对碰撞风险区域内的目标进行过滤,获得最近目标距离估计,并结合车辆的速度信息和加速度信息,估计车辆碰撞到目标所需时间;综合最近目标距离估计值以及车辆碰撞到目标所需时间估计值,对车辆驾驶过程中可能出现的车辆碰撞情况进行辅助预警。
本发明有效减少车辆在行驶过程中的碰撞,车辆追尾等事故,可根据车辆行驶状态以及基于单目视觉检测得到的前方行驶区域内的车辆/行人的最小距离自动给出碰撞预警提示,有效给出司机提醒,减少事故发
生概率。
权利要求书3页 说明书9页 附图4页CN 112349144 A 2021.02.09
C N 112349144
A
1.一种基于单目视觉的车辆碰撞预警方法,其特征在于,包括:
获取前方视野图像数据,对获取的图像数据进行目标检测;
设定碰撞风险区域范围;
对碰撞风险区域内的目标进行过滤,获得最近目标距离估计,并结合车辆的速度信息和加速度信息,估计车辆碰撞到目标所需时间;
综合最近目标距离估计值和/或车辆碰撞到目标所需时间估计值,对车辆驾驶过程中可能出现的车辆碰撞情况进行辅助预警。
2.根据权利要求1所述的基于单目视觉的车辆碰撞预警方法,其特征在于,所述获取前方视野图像数据,对获取的图像数据进行目标检测,包括:
基于单目视觉,实时获取行进方向道路的的图像;
在所获取图像的基础上,结合深度神经网络,建立行人/车辆目标检测模型;
利用建立的行人/车辆目标检测模型对行人和/或车辆进行检测,获得行人和/或车辆目标检测结果。
3.根据权利要求2所述的基于单目视觉的车辆碰撞预警方法,其特征在于,所述建立行人/车辆目标检测模型的方法,包括:
对大量实际路况图片中的行人和/或车辆图像进行标定,形成训练数据集;
基于深度神经网络,采用训练数据集对该深度神经网络进行训练,得到行人/车辆目标检测模型。
4.根据权利要求2所述的基于单目视觉的车辆碰撞预警方法,其特征在于,所述行人/车辆目标检测模型,包括:特征提取模块和检测框回归模块;其中:
所述特征提取模块采用残差网络结构,其输入宽*高的尺寸为480*288的图像,下采样倍数为32,输出宽*高的尺寸分别为15*9和30*18的特征图;
将特征提取模块输出的特征图作为检测框回归模块的输入,对每一个特征图定义n个anchor box,作为检测框回归模块的基准,输出行人和/或车辆目标检测结果。
5.根据权利要求2所述的基于单目视觉的车辆碰撞预警方法,其特征在于,所述获得行人和/或车辆目标检测结果的方法,包括:
设:
每一个bounding box的预测坐标偏移记为t x,t y,t w,t h;
特征图中cell偏移图像左上角坐标记为c x,c y;
每一个Anchor box的尺寸记为p w,p h;
预测box的坐标记为b x,b y,b w,b h;
真实box的坐标记为g x,g y,g w,g h;
则
b x=σ(t x)+
c x
b y=σ(t y)+
c y
即得到准确的行人和/或车辆检测结果。
6.根据权利要求1所述的基于单目视觉的车辆碰撞预警方法,其特征在于,所述设定碰撞风险区域范围的方法,包括:
根据视角的远近变化特点,预设定四个点,并定义由这四个点所围成的梯形区域为有碰撞风险的区域,记作area risk,则area risk为:
(x i,y i)s.t.i∈[1,2,3,4];
当检测到的目标处于此风险区域内,对该目标进行风险碰撞预测。
7.根据权利要求5所述的基于单目视觉的车辆碰撞预警方法,其特征在于,设摄像头分辨率为1920*1080,预设定的用于围成碰撞风险区域范围的四个点的坐标为:(680,940),(680,980),(1080,120),(1080,1800)。
8.根据权利要求1所述的基于单目视觉的车辆碰撞预警方法,其特征在于,所述获得最近目标距离估计和/或估计车辆碰撞到目标所需时间的方法,包括:
-采用相似三角形法则,对获得的位于碰撞风险区域内目标检测结果进行距离估计,包括:
将宽度为W的物体放置于距离摄像头D的位置,如果物体在图像中的像素宽度为P,则计算得到摄像头的焦距F:
F=(P*D)/W
将物体远离或者靠近摄像头,由于摄像头的焦距F不变,因此只需测得此时物体在图像中的宽度P’,则估算出此时物体到摄像头的距离D’:
D’=(F*W)/P’
综合常规轿车宽度的平均值作为基准车辆宽度,以170cm作为行人距离估计时的基准高度度量,即得到行人和/或车辆目标的距离估计值;
-所述估计车辆碰撞到目标所需时间的方法,包括:
获取车辆的速度信息和加速度信息,分别记为v t和a t;
行人和/或车辆目标估计值为obj;
结合当前时刻车速v t和加速度a t,通过牛顿运动算法,估计车辆碰撞到目标所需时间t 为:
obj.dist=v t*t+0.5*a t2。
9.一种基于单目视觉的车辆碰撞预警系统,其特征在于,包括:
车外图像获取摄像头,所述车外图像获取摄像头用于实时获取行进方向道路的图像;
目标检测模块,所述目标检测模块根据获取的行进方向道路图像,对图像数据中的行人和/或车辆进行目标检测;
行车状态获取模块,所述行车状态获取模块用于获取车辆的速度信息和加速度信息;
碰撞风险区域范围设定模块,所述碰撞风险区域范围设定模块用于设定碰撞风险区域范围;
风险计算模块,所述风险计算模块对碰撞风险区域内的行人和/或车辆目标进行过滤,获得最近目标距离估计,并结合车辆的速度信息和加速度信息,估计车辆碰撞到目标所需时间;
辅助预警模块,所述辅助预警模块综合行车状态信息、最近目标距离估计以及车辆碰撞到目标所需时间估计,通过设定的阈值,对车辆驾驶过程中出现的车辆碰撞情况进行辅
助预警。
10.根据权利要求9所述的基于单目视觉的车辆碰撞预警系统,其特征在于,所述车外图像获取摄像头设置于车前窗上方正中间位置。
一种基于单目视觉的车辆碰撞预警方法及系统
技术领域
[0001]本发明涉及图像处理技术领域,具体地,涉及一种基于单目视觉的车辆碰撞预警方法及系统。
背景技术
[0002]自驾出行已经成为人们日常出行的一种常用交通方式,而驾驶过程中的行车安全,对人们的正常生活具有重要的影响,已经越来越受到人们的重视,基于此,行车辅助系统应运而生。
[0003]经过检索发现:
[0004]申请号为201810686185.4、申请日为2018年6月28日的中国发明专利申请《驾驶辅助方法、驾驶辅助装置及存储介质》,公开了一种驾驶辅助方法、驾驶辅助装置及存储介质,其中,该方法包括:通过双目摄像头采集汽车前方的第一图像,同时通过单目摄像头采集汽车前方的第二图像,并于车载显示屏上输出显示第二图像;提取第一图像的至少一个图像特征信息;判断至少一个图像特征信息中是否存在目标图像特征信息符合预设预警条件;当存在目标图像特征信息符合预设预警条件时,通过车载音箱发出预警提示音,且于车载显示屏上突出显示关联信息。
本发明通过分析双目摄像头拍摄的第一图像,并判定汽车当前行驶过程中存在预警信息时,发出提醒信息,以提醒驾驶员及时避让,降低出现安全事故的概率,且用于分析和输出的图像分开拍摄,进一步提高了分析结果的精确性。
该技术与本发明所涉及的目标检测方法相比,具有如下问题:
[0005] 1.该技术同时采用双目摄像头和单目摄像头,硬件成本高,且该技术基于通过双目视差方法进行距离计算。
[0006] 2.该技术未设定碰撞风险范围,易造成误报警。
[0007]综上所述,现有的辅助驾驶技术,不能很好的满足人们在驾驶过程中对车辆驾驶辅助预警的需求,目前没有发现同本发明类似技术的说明或报道,也尚未收集到国内外类似的资料。
发明内容
[0008]本发明针对现有技术中存在的上述不足,提供了一种基于单目视觉的车辆碰撞预警方法及系统。
[0009]本发明是通过以下技术方案实现的。
[0010]根据本发明的一个方面,提供了一种基于单目视觉的车辆碰撞预警方法,包括:[0011]获取前方视野图像数据,对获取的图像数据进行目标检测;
[0012]设定碰撞风险区域范围;
[0013]对碰撞风险区域内的目标进行过滤,获得最近目标距离估计,并结合车辆的速度信息和加速度信息,估计车辆碰撞到目标所需时间;
[0014]综合最近目标距离估计值和/或车辆碰撞到目标所需时间估计值,对车辆驾驶过
程中可能出现的车辆碰撞情况进行辅助预警。
[0015]优选地,所述获取前方视野图像数据,对获取的图像数据进行目标检测,包括:[0016]基于单目视觉,实时获取行进方向道路的的图像;
[0017]在所获取图像的基础上,结合深度神经网络,建立行人/车辆目标检测模型;[0018]利用建立的行人/车辆目标检测模型对行人和/或车辆进行检测,获得行人和/或车辆目标检测结果。
[0019]优选地,所述建立行人/车辆目标检测模型的方法,包括:
[0020]对大量实际路况图片中的行人和/或车辆图像进行标定,形成训练数据集;[0021]基于深度神经网络,采用训练数据集对该深度神经网络进行预训练,得到行人/车辆目标检测模型。
[0022]优选地,所述行人/车辆目标检测模型,包括:特征提取模块和检测框回归模块;其中:
[0023]所述特征提取模块采用残差网络结构,其输入宽*高的尺寸为480*288图像,下采样倍数为32,输出宽*高的尺寸分别为15*9和30*18的特征图;
[0024]将特征提取模块输出的特征图作为检测框回归模块的输入,对每一个特征图定义n个anchor box,作为检测框回归模块的基准,输出行人和/或车辆目标检测结果。
[0025]优选地,所述获得行人和/或车辆目标检测结果的方法,包括:
[0026]设:
[0027]每一个bounding box的预测坐标偏移记为t x,t y,t w,t h;
[0028]特征图中cell偏移图像左上角坐标记为c x,c y;
[0029]每一个Anchor box的尺寸记为p w,p h;
[0030]预测box的坐标记为b x,b y,b w,b h;
[0031]真实box的坐标记为g x,g y,g w,g h;
[0032]则
[0033]b x=σ(t x)+c x
[0034]b y=σ(t y)+c y
[0035]
[0036]
[0037]即得到准确的行人和/或车辆检测结果。
[0038]优选地,所述设定碰撞风险区域范围的方法,包括:
[0039]根据视角的远近变化特点,预设定四个点,并定义由这四个点所围成的梯形区域为有碰撞风险的区域,记作area risk,则area risk为:
[0040](x i,y i)s.t.i∈[1,2,3,4]。
[0041]当检测到的目标处于此风险区域内,对该目标进行风险碰撞预测。
[0042]优选地,设摄像头分辨率为1920*1080,预设定的用于围成碰撞风险区域范围的四个点的坐标为:
[0043](680,940),(680,980),(1080,120),(1080,1800)。
[0044]优选地,所述获得最近目标距离估计和/或估计车辆碰撞到目标所需时间的方法,
包括:
[0045]-采用相似三角形法则,对获得的位于碰撞风险区域内目标检测结果进行距离估计,包括:
[0046]将宽度为W的物体放置于距离摄像头D的位置,如果物体在图像中的像素宽度为P,则计算得到摄像头的焦距F:
[0047]F=(P*D)/W
[0048]将物体远离或者靠近摄像头,由于摄像头的焦距F不变,因此只需测得此时物体在图像中的宽度P’,则估算出此时物体到摄像头的距离D’:
[0049]D’=(F*W)/P’
[0050]综合常规轿车宽度的平均值作为基准车辆宽度,以170cm作为行人距离估计时的基准度量,即得到行人和/或车辆目标进行距离估计值;
[0051]-所述估计车辆碰撞到目标所需时间的方法,包括:
[0052]获取车辆的速度信息和加速度信息,分别记为v t和a t;
[0053]行人和/或车辆目标估计值为obj;
[0054]结合当前时刻车速v t和加速度a t,通过牛顿运动算法,估计车辆碰撞到目标所需时间t为:
[0055]obj.dist=v t*t+0.5*a t2。
[0056]优选地,所述综合最近目标距离估计以及车辆碰撞到目标所需时间估计,对车辆驾驶过程中出现的车辆碰撞进行辅助预警的方法,包括:
[0057]设定目标距离最近阈值以及车辆碰撞到目标最短时间阈值,判断得到车辆驾驶过程中可能出现的车辆碰撞情况,并进行辅助预警。
[0058]根据本发明的另一个方面,提供了一种基于单目视觉的车辆碰撞预警系统,其特征在于,包括:
[0059]车外图像获取摄像头,所述车外图像获取摄像头用于实时获取行进方向道路的图像;
[0060]目标检测模块,所述目标检测模块根据获取的行进方向道路图像,对图像数据中的行人和/或车辆进行目标检测;
[0061]行车状态获取模块,所述行车状态获取模块用于获取车辆的速度信息和加速度信息;
[0062]碰撞风险区域范围设定模块,所述碰撞风险区域范围设定模块用于设定碰撞风险区域范围;
[0063]风险计算模块,所述风险计算模块对碰撞风险区域内的行人和/或车辆目标进行过滤,获得最近目标距离估计,并结合车辆的速度信息和加速度信息,估计车辆碰撞到目标所需时间;
[0064]辅助预警模块,所述辅助预警模块综合行车状态信息、最近目标距离估计以及车辆碰撞到目标所需时间估计,通过设定的阈值,对车辆驾驶过程中可能出现的车辆碰撞情况进行辅助预警。
[0065]优选地,所述车外图像获取摄像头设置于车前窗上方正中间位置。
[0066]由于采用了上述方案,本发明与现有技术相比,具有如下的有益效果:
[0067]本发明提供的基于单目视觉的车辆碰撞预警方法及系统,可有效减少车辆在行驶过程中的(车辆/行人)碰撞,车辆追尾等事故,可根据车辆行驶状态以及基于单目视觉检测得到的前方行驶区域内的车辆/行人的最小距离自动给出碰撞预警提示,有效给出司机提醒,减少事故发生概率。
[0068]本发明提供的基于单目视觉的车辆碰撞预警方法及系统,基于单目视觉,利用相似三角形方法进行距离估计。
[0069]本发明提供的基于单目视觉的车辆碰撞预警方法及系统,通过设计特定的目标检测神经网络,结合大数据优势,极大的减少误检/漏检情况,且通过预设定碰撞风险范畴,划定保定范围,避免误报警情况。
[0070]实施本发明的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
[0071]通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
[0072]图1为本发明一优选实施例中基于单目视觉的车辆碰撞预警方法工作流程图;[0073]图2为本发明一优选实施例中摄像头可以感知车辆前方行驶区域示意图;[0074]图3为本发明一优选实施例中设定碰撞风险范围的工作示意图;
[0075]图4为本发明一优选实施例中行人/车辆目标检测模型结构示意图;
[0076]图5为本发明一优选实施例中行人/车辆目标检测模型完成检测行人和车辆工作的示意图;
[0077]图6为本发明一优选实施例中行人/车辆距离估计的工作示意图;
[0078]图7为本发明一优选实施例中预警决策流程的工作流程图。
具体实施方式
[0079]下面对本发明的实施例作详细说明:本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程。
应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。
[0080]本发明一实施例提供了一种基于单目视觉的车辆碰撞预警方法,该方法实时获取行车状态数据以及前方视野图像数据,通过设定的碰撞风险区域范围,获得最近目标距离估计,进而进行车辆驾驶过程中出现的车辆碰撞进行辅助预警。
[0081]本实施例所提供的基于单目视觉的车辆碰撞预警方法,包括如下步骤:
[0082]步骤S1,获取前方视野图像数据,对获取的图像数据进行目标检测;
[0083]步骤S2,设定碰撞风险区域范围;
[0084]步骤S3,对碰撞风险区域内的目标进行过滤,获得最近目标距离估计,并结合车辆的速度信息和加速度信息,估计车辆碰撞到目标所需时间;
[0085]步骤S4,综合最近目标距离估计和/或车辆碰撞到目标所需时间估计,对车辆驾驶过程中可能出现的车辆碰撞情况进行辅助预警。
[0086]在本实施例中,步骤S1和步骤S2的执行顺序可互换。
[0087]作为一优选实施例,步骤S1,包括如下步骤:
[0088]步骤S11,基于单目视觉,实时获取行进方向道路的的图像;
[0089]步骤S12,在所获取图像的基础上,结合深度神经网络,建立行人/车辆目标检测模型;
[0090]步骤S13,利用建立的行人/车辆目标检测模型对行人和/或车辆进行检测,获得行人和/或车辆目标检测结果。
[0091]作为一优选实施例,步骤S11中,通过设置于车前窗上方正中间位置的摄像头,实时获取行进方向道路的图像。
[0092]作为一优选实施例,步骤S12中,建立行人/车辆目标检测模型的方法,包括:[0093]对大量实际路况图片中的行人和/或车辆图像进行标定,形成训练数据集;[0094]基于深度神经网络,采用训练数据集对该深度神经网络进行预训练,得到行人/车辆目标检测模型。
[0095]作为一优选实施例,行人/车辆目标检测模型包括特征提取模块和检测框回归模块;其中:
[0096]特征提取模块采用残差网络结构,其输入宽*高的尺寸为480*288的图像,下采样倍数为32,输出宽*高的尺寸分别为15*9和30*18的特征图;
[0097]将特征提取模块输出的特征图作为检测框回归模块的输入,对每一个特征图定义n个anchor box,作为检测框回归模块的基准,输出行人和/或车辆目标检测结果。
[0098]作为一优选实施例,步骤S13中,获得行人和/或车辆目标检测结果的方法,包括:[0099]设:
[0100]每一个bounding box的预测坐标偏移记为t x,t y,t w,t h;
[0101]特征图中cell偏移图像左上角坐标记为c x,c y;
[0102]每一个Anchor box的尺寸记为p w,p h;
[0103]预测box的坐标记为b x,b y,b w,b h;
[0104]真实box的坐标记为g x,g y,g w,g h;
[0105]则
[0106]b x=σ(t x)+c x
[0107]b y=σ(t y)+c y
[0108]
[0109]
[0110]即得到准确的行人和/或车辆检测结果。
[0111]作为一优选实施例,步骤S2中,设定碰撞风险区域范围的方法,包括:
[0112]根据视角的远近变化特点,预设定四个点,并定义由这四个点所围成的梯形区域为有碰撞风险的区域,记作area risk,则area risk为:
[0113](x i,y i)s.t.i∈[1,2,3,4];
[0114]当检测到的目标处于此风险区域内,对该目标进行风险碰撞预测。
[0115]作为一优选实施例,设摄像头分辨率为1920*1080,预设定的用于围成碰撞风险区域范围的四个点的坐标为:
[0116](680,940),(680,980),(1080,120),(1080,1800)。
[0117]作为一优选实施例,步骤S3中,根据相似三角形法则,对获得的位于碰撞风险区域内目标检测结果进行距离估计,包括如下步骤:
[0118]将宽度为W的物体放置于距离摄像头D的位置,如果物体在图像中的像素宽度为P,则计算得到摄像头的焦距F:
[0119]F=(P*D)/W
[0120]将物体远离或者靠近摄像头,由于摄像头的焦距F不变,因此只需测得此时物体在图像中的宽度P’,则估算出此时物体到摄像头的距离D’:
[0121]D’=(F*W)/P’
[0122]综合常规轿车宽度的平均值作为基准车辆宽度,以170cm作为行人距离估计时的基准度量,即得到行人和/或车辆目标进行距离估计值。
[0123]作为一优选实施例,步骤S3中,估计车辆碰撞到目标所需时间的方法,包括:[0124]获取车辆的速度信息和加速度信息,分别记为v t和a t;
[0125]行人和/或车辆目标估计值为obj;
[0126]结合当前时刻车速v t和加速度a t,通过牛顿运动算法,估计车辆碰撞到目标所需时间t为:
[0127]obj.dist=v t*t+0.5*a t2
[0128]作为一优选实施例,步骤S4中,设定目标距离最近阈值以及车辆碰撞到目标最短时间阈值,判断车辆驾驶过程中可能出现的车辆碰撞情况,并进行辅助预警。
[0129]下面结合附图,对本发明上述实施例所提供的技术方案进一步详细描述如下。
[0130]如图1所示,为本发明上述实施例所提供的基于单目视觉的车辆碰撞预警方法工作流程图。
[0131]如图2所示,将车载摄像头固定或镶嵌在车窗上部中间位置,使得摄像头可以感知车辆前方行驶区域。
[0132]如图3所示,为设定碰撞风险范围的工作示意图。
[0133]由于摄像头的固定位置处于车辆的中轴线上且朝向正前方位置,因此在捕获到的图像画面中,车辆自身位置也处于图像的中间位置。
车辆在行进过程中,车辆行驶前方为有碰撞风险的区域,通过选取四个点来预设定碰撞风险范围,记作area risk,在area risk中:[0134](x i,y i)s.t.i∈[1,2,3,4]
[0135]在该碰撞风险范围的计算中,摄像头分辨率为1920*1080,预设定的碰撞风险范围为由下面四个点围成的梯形:
[0136](680,940),(680,980),(1080,120),(1080,1800)。
[0137]只有当车辆或行人处于此风险区域内,才对其进行风险碰撞预测。
[0138]如图4,为行人/车辆目标检测模型结构示意图。
[0139]通过标定大量数据,结合深度神经网络,建立行人/车辆目标检测模型。
[0140]该行人/车辆目标检测网络结构基于yolov3演进得来,网络输入大小为480*288,更好的适应摄像头传感器的分辨率尺寸1920*1080,避免resize过程造成图像畸变。
特征提取(backbone)采用残差网络结构。
下采样倍数为32。
同时,为了应对远处的小目标,采用了多尺度特征对目标位置进行预测。
在整个网络结构中,没有池化层和全连接层。
因此,对于
输入大小为488*288的图像,经过32倍的下采样后,得到15*9的feature map,同时,为了检测小目标而融合多尺度特征,得到另一个30*18的feature map。
基于YOLOV3算法,对于每个feature map分别定义3个anchor box,作为回归最终box的基准。
[0141]每个bounding box的预测坐标偏移记为t x,t y,t w,t h;
[0142]Feature map中cell偏移图像左上角坐标记为c x,c y;
[0143]Anchor box的尺寸记为p w,p h;
[0144]预测box的坐标记为b x,b y,b w,b h;
[0145]真实box的坐标记为g x,g y,g w,g h;
[0146]则:
[0147]b x=σ(t x)+c x
[0148]b y=σ(t y)+c y
[0149]
[0150]
[0151]训练好的检测模型可以准确的检测行人和车辆,如图5所示。
[0152]如图6所示,为行人/车辆距离估计的工作示意图。
[0153]在本发明实施例所提供的系统中,需要粗略估计出前方车辆/行人距离当前车辆的距离。
根据相似三角形法则计算。
假设将宽度为W的物体放置于距离摄像头D的位置,如果物体在图像中的像素宽度为P,则可以计算得到摄像头的焦距F:
[0154]F=(P*D)/W
[0155]若将物体远离或者靠近摄像头,由于摄像头的焦距F不变,因此只要测得此时物体在图像中的宽度P’,则可以估算出此时物体到摄像头的距离D’:
[0156]D’=(F*W)/P’
[0157]在本发明实施例所提供的系统中,综合现阶段市面上常见的轿车宽度的平均值作为基准车辆宽度,以170cm作为行人距离估计时的基准度量。
如图6所示,f表示摄像头的焦距,ww表示轿车的平均宽度,wp表示轿车在图像中对应的像素宽度。
则由相似三角形的原理可以得到轿车到摄像头的距离:
[0158]dist=(f*ww)/wp
[0159]对行人进行距离估计的原理类似。
[0160]获得碰撞风险区域内前方车辆和行人的最小距离:
[0161]依次判断目标检测得到的所有行人和车辆位置是否位于碰撞风险区域内,并计算得到距离车辆最近的车辆或行人及对应距离估计。
算法流程如下:
[0162]。