单目视觉测距

合集下载

基于单目视觉的实时测距方法研究论文

基于单目视觉的实时测距方法研究论文

基于单目视觉的实时测距方法研究论文摘要:测距是计算机视觉领域中的重要问题之一,在许多应用中都有广泛的应用。

本文提出了一种基于单目视觉的实时测距方法。

该方法利用单目相机拍摄到的图像进行目标的距离估计,不需要额外的传感器或设备。

首先,通过标定相机获取相机的内参数矩阵和畸变参数。

然后,使用特征点匹配算法对图像中的特征进行提取和匹配,得到特征点的对应关系。

接下来,利用三角测量原理计算出目标特征点在相机坐标系下的深度值。

最后,通过相机的内参数矩阵和深度值可以得到目标物体在相机坐标系下的三维坐标,从而实现了测距。

实验结果表明,该方法能够在实时场景中实现准确的测距,具有很大的应用潜力。

关键词:单目视觉,测距,内参数矩阵,特征点匹配,三角测量1. 引言随着计算机视觉技术的发展,测距问题在很多领域中得到了广泛的研究和应用。

利用视觉传感器进行测距是一种常见的方法,它可以在没有额外传感器的情况下实现目标的距离估计。

单目视觉是一种简单且成本相对较低的测距方式,因此在实际应用中具有重要的意义。

2. 方法本文提出的实时测距方法基于单目视觉,核心原理是利用特征点匹配和三角测量。

首先,通过标定相机获取相机的内参数矩阵和畸变参数。

内参数矩阵包括焦距和像素尺寸等参数,畸变参数用于修正图像的畸变。

然后,利用特征点匹配算法对图像中的特征进行提取和匹配。

特征点的提取可以使用SIFT、SURF等算法,匹配可以使用最近邻算法或RANSAC算法。

在特征点匹配完成后,可以得到特征点的对应关系。

接下来,根据三角测量原理计算出目标特征点在相机坐标系下的深度值。

三角测量原理利用目标在不同视角下的投影关系,通过三角形的边长比例计算出目标的深度。

最后,通过相机的内参数矩阵和深度值可以得到目标物体在相机坐标系下的三维坐标,从而实现了测距。

3. 实验结果对于本方法的实验结果进行了验证。

选取了不同距离的目标物体进行测距实验,并与实际距离进行比较。

结果表明,本方法能够在实时场景中实现准确的测距,与实际距离具有较小的误差。

用于目标测距的单目视觉测量方法_韩延祥

用于目标测距的单目视觉测量方法_韩延祥

第19卷 第5期2011年5月 光学精密工程 Optics and Precision Engineering Vol.19 No.5 May 2011 收稿日期:2010-07-07;修订日期:2010-10-27. 基金项目:国家自然科学基金资助项目(No.50805023);江苏省“六大人才高峰”资助项目(No.2008144);东南大学优秀青年教师教学科研基金资助项目(No.200902);江苏省“青蓝工程”资助项目(No.2008-30-1)文章编号 1004-924X(2011)05-1110-08用于目标测距的单目视觉测量方法韩延祥,张志胜*,戴 敏(东南大学机械工程学院,江苏南京211189)摘要:为了克服对应点匹配和单个特征点提取误差对测量结果的影响,本文在基于图像处理的基础上,提出了一种基于特征点的单目视觉测距方法。

首先利用小孔成像原理,得出成像点与目标点的映射关系,建立小孔成像模型。

然后通过对目标图像的分析,得出目标物与目标图像的面积映射关系,建立视觉测量的直线测距模型;通过图像处理,提取目标图像的特征点,将光心与目标物的距离关系转化为光心与特征点的距离关系,提出了基于特征点的单目视觉测距原理。

最后对测距原理进行实验验证并对得出的数据进行分析,针对测量误差随距离增加而变大的现象,通过对数据的分析,得出是由于光轴偏心而引起的误差;将数据修正后,测量结果的最大相对误差为1.68%,精度提高明显,验证了原理的可行性和算法的有效性。

关 键 词:计算机视觉;单目视觉测量;小孔成像;图像处理;目标测距中图分类号:TP242.6 文献标识码:A doi:10.3788/OPE.20111905.1110Monocular vision system for distancemeasurement based on feature pointsHAN Yan-xiang,ZHANG Zhi-sheng*,DAI Min(School of Mechanical Engineering,Southeast University.,Nanjing211189,China)*Corresponding author,E-mail:oldbc@seu.edu.cnAbstract:To alleviate the effect of matching of corresponding feature points and extraction error ofsingle feature point,a method by using a single camera as monocular measurement is presented basedon image processing.Firstly,this paper sets up the mapping relationship between image point andtarget point,and establishes pinhole imaging model.Secondly,it describes the mapping relationshipbetween object area and image area of object by using image analysis,and establishes the model of dis-tance measurement in optical direction.Then,the principle of distance measurement between opticalcenter and feature point is proposed after image processing and feature point extracting are carriedout.At last,the paper starts out verification experiments and analyzes the cause that error increaseswith further distance.After analyzing the data of experiment,the conclusion that error is related withthe optical axis deviation is made.Sequentially,with the maximum relative error 1.68%of revised da-ta,there is a remarkable improvement which proves the feasibility and the effectiveness of the pro-posed principle.Key words:computer vision;monocular vision measurement;pinhole imaging;image processing;tar-get location1 引 言 视觉测距作为机器视觉领域内基础技术之一而受到广泛的关注,其在机器人领域内占有重要的地位,广泛应用于机器视觉定位、目标跟踪、视觉避障等,尤其是作为视觉导航和伺服控制中不可或缺的基础技术。

单目摄像头测距原理

单目摄像头测距原理

单目摄像头测距原理单目摄像头是指只有一个摄像头的设备,它可以通过图像处理技术实现对物体距离的测量。

在现代科技领域,单目摄像头测距技术已经被广泛应用于无人驾驶、智能家居、工业自动化等领域。

那么,单目摄像头是如何实现测距的呢?接下来,我们将深入探讨单目摄像头测距的原理。

单目摄像头测距的原理主要依赖于视差和三角测量法。

视差是指当人的两只眼睛同时观察一个物体时,由于两只眼睛的位置不同,所以看到的物体位置也有所不同。

这种不同之处就是视差。

在单目摄像头测距中,通过获取不同位置的图像,利用图像处理算法计算出物体的视差,从而实现对物体距离的测量。

在图像处理算法中,常用的方法包括立体匹配、深度学习等。

立体匹配是指通过对两幅图像进行特征点匹配,计算出对应点的视差,再通过三角测量法计算出物体距离的方法。

而深度学习则是通过神经网络对图像进行学习,从而实现对物体距离的估计。

这些方法都可以有效地实现单目摄像头的测距功能。

除了视差和图像处理算法,单目摄像头测距还需要考虑相机的内参和外参。

相机的内参是指相机的焦距、主点位置等参数,而外参则是指相机的位置和姿态参数。

这些参数对于测距的精度和稳定性都有着重要的影响。

因此,在实际应用中,需要对相机的内参和外参进行准确的标定和校正,以确保测距结果的准确性。

在实际应用中,单目摄像头测距技术还面临着一些挑战和限制。

首先,由于单目摄像头只有一个视角,无法直接获取深度信息,因此在测距过程中需要进行复杂的图像处理和计算。

其次,光照、遮挡等环境因素也会对测距结果产生影响,需要通过算法优化和环境控制来解决这些问题。

此外,单目摄像头对于远距离、小尺寸物体的测距精度也存在一定的局限性。

总的来说,单目摄像头测距技术是一种基于视差和图像处理算法的距离测量方法。

通过对图像的处理和分析,结合相机的内参和外参,可以实现对物体距离的准确测量。

然而,在实际应用中仍需克服一些挑战和限制,不断优化算法和提高测距精度,以满足不同领域的需求。

单目摄像头测距原理

单目摄像头测距原理

单目摄像头测距原理单目摄像头是指只有一个镜头的摄像头,它可以通过图像处理技术实现测距功能。

在现实生活中,我们经常会遇到需要测量距离的情况,比如自动驾驶汽车需要测量前方障碍物的距离,无人机需要测量地面的高度等。

而单目摄像头测距技术的应用,正是为了满足这些需求。

接下来,我们将介绍单目摄像头测距的原理及其实现方法。

单目摄像头测距的原理主要是利用图像中的视差信息来计算距离。

视差是指当我们从不同位置观察同一物体时,由于视角的改变而导致物体在图像中位置的偏移。

通过分析这种视差,我们可以推断出物体与摄像头的距离。

具体来说,单目摄像头测距的原理可以分为以下几个步骤:1. 视差计算,首先,我们需要从单目摄像头获取到图像,并对图像进行处理,提取出图像中的特征点。

然后,我们通过比较这些特征点在不同位置的位置偏移,计算出视差信息。

2. 距离推断,根据视差信息,我们可以利用三角测量原理推断出物体与摄像头的距离。

通过已知的摄像头参数和视差信息,我们可以计算出物体的距离。

3. 距离修正,由于单目摄像头测距存在一定的误差,我们通常需要进行距离修正。

这可以通过使用其他传感器获取准确的距离信息,然后校正单目摄像头的测距结果。

实现单目摄像头测距的方法有很多种,其中比较常见的包括立体视觉法、运动视差法和结构光法等。

立体视觉法通过使用两个摄像头来模拟人类的双眼视觉,从而实现距离测量。

运动视差法则是利用摄像头和物体之间的相对运动来计算视差,从而推断出距离。

而结构光法则是通过投射特定图案到物体表面,然后利用摄像头捕捉图案的形变,从而计算出物体的距离。

总的来说,单目摄像头测距是一种基于图像处理技术的距离测量方法,它通过分析图像中的视差信息来推断物体与摄像头的距离。

虽然单目摄像头测距存在一定的局限性,比如对光照条件和物体表面的要求较高,但在许多应用场景下仍具有重要的意义。

随着图像处理技术的不断发展,相信单目摄像头测距技术将会得到进一步的完善和应用。

基于单目视觉的无人机测距算法研究

基于单目视觉的无人机测距算法研究
Key words: UAV; monocular vision; real-time distance
0 引言
应用一个摄像头作为唯一的传感器设备进行 测距工作, 这是机器人领域最具挑战性的难题之 一。 在无人飞行器上解决这个问题甚至比地面机
器人上解决更具有挑战性, 因为无人飞行器较地 面机器人有更高的自由度。 本文的工作主要聚焦 在旋翼无人飞行器, 这么决定的意义在于大多数 真实环境中的飞行机器人在军事和民用环境中的
摘 要: 近年来研究人员试图利用单个摄像头作为无人飞行器自主避障的主要传感器, 即采用单目视觉方法
测距。 这主要是因为小型无人机的负载能力有限, 利用单个摄像头能够使无人机的计算时间和电池的消耗减少,
并且有可能实现基于视觉算法的实时性避障。 由此提出了一种计算实时距离的数学模型, 通过这种模型来估算
由于四旋翼飞行器的尺寸较应用在传统直升 的无人机当前姿态和无人机载摄像机的三维空间
机 上 的 旋 翼 小 得 多 , 因 而 四 旋 翼 在 旋 转 时 能 够 节 坐 标 来 计 算 摄 像 机 的 位 置 [6]。 其 中 的 数 学 模 型 如
省更多的运动能量, 并且在碰撞到物体时能够对 图 1 所示。
for autonomous obstacle avoidance of UAV, that is, monocular vision method is used to measure distance. This is mainly due to the limited capacity of the small UAV, and the use of a single camera can reduce the UAV computing time and battery consumption, and it is possible to achieve real -time obstacle avoidance based on visual algorithm. Therefore, a mathematical model to calculate the real time distance is proposed, which can be used to estimate the distance between the camera on a small UAV and the obstacle. And the experimental results show that the results obtained by this method are in good agreement with the true values of the ground.

基于单目视觉的实时测距方法研究_2

基于单目视觉的实时测距方法研究_2

) /W
)- tg ( 0 - 0 ) ) cos( 0 - 0 ) cos( 0 - 0 ) - cos( 0 ) 式 ( 2 )中 , H 为图像的高; W 为图像的宽 ; h 为摄像机 的安装高度; 2
0
h ! ( tg (
为摄像机镜头的水 平视野角 ; 2
0
0
为摄像 机 镜 头 的 垂 直 视 野 角;
为了利用单目视觉实时监测本车与前方障碍物之间的距离 , 在比较了现有的几类用于车辆控制的 道路深度
信息获取方法的基础上, 首先研究了较为适用于汽车自动 驾驶的几何关系推导 法, 进而提出了 基于单目视觉的实 时 测距算法。通过试验可知 , 由于摄像机的俯仰角是影响实 时测距算法的关键因 素, 因此又提出 了基于道路边界平 行 约束条件的实时计算摄像机俯仰角算法。静态实车试验的结果显示 , 该基于单目视觉的实时测距算法具有 较高的准 确性 , 可以满足测距要求 , 而动态实车试验的结果则显示 , 此算法还可以满足汽车智能化控制的实时性要求。 关键词 单目视觉 深 度信息 边界约束条件 实时测距 文章编号 : 1006 8961( 2006) 01 0074 08 中图法分类号 : TP242. 62 文献标识码 : A
随着智能车辆 ( inte lligent veh icle , I V ) 的发展 , 现 代 汽 车 智能 化 程 度 不 断 提 高 , 利 用 机 器视 觉 ( m ach in e v ision) 实现 汽车自动驾驶 也逐步成为世 界各国研究的热点之一
[ 1~ 5]
。通过机器视觉获取环
境信息 , 进而对汽车进行控制是实现汽车智能化的
于机器视觉的智能汽车信息获取及车辆控制方面的研究。 E m ai: l guole@ i tsinghua . org. cn

基于单目视觉的实时测距方法研究

基于单目视觉的实时测距方法研究
CaIlIly edge detection and
Hough仃ansfom
linear fittiI培metllod to complete the lane liIle
detection a11d ex廿action.Then accordiIlg toⅡ1e propenies of parallel liIles and
of scientific research in me Intelligent tllis
on
persollIlel,maIly new methods of theo巧and practical
Vellicle to improVe the intelligent paper,a Vellicle traVeling
本文首先通过各种测距技术手段的优缺点比较,选定具有明显优势的单目视觉测距
系统;其次在车道线的检测与提取过程中,根据车道线常用模型的假设,再结合实际应
用中的实验环境以及需求,对车道线模型做出了具体假设,通过分析和对比各种车道线
检测算法,总结出车道线检测算法的必备条件,在上述工作的基础上,使用基于CaIlny 边缘提取和霍夫变换直线拟合的方法完成车道线的检测与提取;然后文中针对高速公路 车道线的特点,利用消失点和平行线的性质,找出摄像机的外参数与消失点和斜率之间
其次在车道线的检测与提取过程中根据车道线常用模型的假设再结合实际应用中的实验环境以及需求对车道线模型做出了具体假设通过分析和对比各种车道线检测算法总结出车道线检测算法的必备条件在上述工作的基础上使用基于cailny边缘提取和霍夫变换直线拟合的方法完成车道线的检测与提取
硕士学位论文
基于单目视觉的实时测距方法研究
aS
aIl

基于单目视觉的变焦测距方法

基于单目视觉的变焦测距方法

第30卷第2期江苏理工学院学报JOURNAL OF JIANGSU UNIVERSITY OF TECHNOLOGY Vo l.30,No.2 Apr.,20242024年4月随着社会的快速发展,私家车的数量越来越多。

为了减少交通事故的数量,研究车辆辅助驾驶势在必行,而前车测距作为车辆辅助驾驶的一部分,对其进行研究具有重要意义。

在行车过程中,系统实时进行车辆检测和车距测量,当汽车车距较近时便会及时提醒驾驶员,使驾驶员保持安全车距,避免发生碰撞[1]。

目前,汽车上采用的测距方式主要有超声波测距、毫米波雷达测距、激光测距以及视觉测距。

但现阶段,超声波、激光和雷达等测距技术成本较高,例如:雷达测距需要很多传感器来加强电磁波信号;超声波测距需要单片机作为控制核心,但单片机寿命短,且后期维护成本高。

相对比而言,视觉测距仅需使用普通摄像头测距,成本低,效果好[2]。

所以,当前许多学者对前车视觉测距开展了深入研究。

Wang等人[3]提出了一种基于单目视觉和车牌的车距测量方法,根据相机的内部参数、四角的图像坐标和车牌的大小计算两辆车之间的距离;余厚云等人[4]从针孔模型摄像机成像的基本原理出发,推导出基于图像中车道线消失点的车距测量公式;姚振鑫等人[5]提出了以车牌检测整个图像宽度与车牌宽度之间像素比的算法,并推导出像素比与车距的函数;姚春莲等人[6]提出了根据车牌在图像中像素面积的大小来计算车距的方法;程瑶等人[7]以检测车牌在图像中像素的数量方式,实现车距的测量。

李敬宇[8]以深度学习为基础,以车牌为目标,提出了一种基于MTCNN和P4P算法的单目视觉车距检测方法。

虽然现有文献提出了多种前方车辆测距方法,但是基于传统视觉的测距方法无法对相机自身拍照距离以外的较远距离基于单目视觉的变焦测距方法秦峰,张雷,尚玉龙(江苏理工学院电气信息工程学院,江苏常州213001)摘要:文章提出了一种基于数字变焦的单目测距检测方法,以解决传统基于车牌的单目方法中最大检测距离的限制问题。

单目摄像头测距原理

单目摄像头测距原理

单目摄像头测距原理一、背景介绍单目摄像头是一种常用的视觉传感器,可以通过图像处理来获取物体的距离信息。

本文将详细介绍单目摄像头测距的原理以及相关技术。

二、单目摄像头测距的原理单目摄像头测距主要基于三角测距原理,通过获取物体在图像中的像素变化或视差来计算物体的距离。

以下是单目摄像头测距的基本原理:1. 视差原理视差是通过观察物体在两个不同位置下的图像差异来测量物体距离的方法之一。

当我们用一只眼睛观察距离较近的物体时,可以观察到物体在两个眼睛之间的位置差异。

单个摄像头可以模拟这个过程,通过分析图像中的像素差异来计算物体的距离。

2. 相机标定在进行单目摄像头测距之前,首先需要进行相机标定。

相机标定是通过确定相机的内外参数来建立摄像头与真实世界之间的转换关系。

通过相机标定可以得到相机的焦距、畸变参数等信息,为后续的测距工作提供基础。

3. 物体特征提取在进行测距之前,需要首先对物体进行特征提取。

常用的物体特征包括角点、边缘等。

通过提取物体的特征点,可以提高测距的准确性。

4. 视差计算视差计算是单目摄像头测距的关键步骤。

通过对特征点的像素坐标进行计算,可以得到物体在图像中的视差值。

视差值与物体的距离成反比,即视差越大,物体距离越近。

5. 距离计算在计算得到视差值之后,可以通过已知的相机参数和三角测量原理来计算物体的距离。

根据视差与物体距离的关系,可以建立视差与实际距离之间的映射关系。

根据此映射关系,可以通过视差值计算出物体的实际距离。

三、单目摄像头测距的应用单目摄像头测距技术在许多领域都有广泛的应用。

以下是几个常见的应用场景:1. 智能驾驶在自动驾驶领域,单目摄像头常用于车辆和行人的距离测量。

通过测量前方物体的距离,可以帮助车辆做出相应的决策,如避障、跟车等。

2. 工业自动化在工业自动化中,单目摄像头可以用于测量物体的距离和尺寸。

通过测量物体的距离,可以实现自动化生产线上的物料识别和定位,提高生产效率和质量。

单目摄像头测距原理

单目摄像头测距原理

单目摄像头测距原理单目摄像头是指只有一个摄像头的设备,它可以通过图像处理技术实现测距的功能。

在现代科技应用中,单目摄像头测距已经被广泛应用于无人驾驶、智能家居、工业自动化等领域。

那么,单目摄像头测距的原理是什么呢?本文将从单目摄像头的工作原理、测距方法以及应用场景等方面进行详细介绍。

首先,单目摄像头测距的原理是基于视差的测量。

视差是指当我们用两只眼睛观察远处的物体时,由于两只眼睛的位置不同,所看到的物体会有一定的差异。

这种差异就是视差。

单目摄像头利用图像处理技术,通过分析图像中物体的位置差异来计算出物体与摄像头之间的距离。

在图像处理过程中,首先需要对图像进行深度学习和特征提取,然后通过计算视差来实现距离的测量。

其次,单目摄像头测距的方法主要包括三角测距法、结构光法和深度学习法。

三角测距法是通过测量目标物体在图像中的位置和角度,结合摄像头的参数和视角信息,利用三角形相似原理计算出目标物体与摄像头之间的距离。

结构光法则是通过投射特定的光线或图案到目标物体上,利用摄像头拍摄目标物体反射或变形后的图案,再通过图像处理技术计算出物体的距离。

深度学习法则是利用人工智能和深度学习技术,通过大量的数据训练模型,实现对图像中物体距离的识别和测量。

最后,单目摄像头测距在各个领域都有着广泛的应用。

在无人驾驶领域,单目摄像头可以实时监测车辆与前方障碍物的距离,从而实现智能驾驶和避障功能。

在智能家居领域,单目摄像头可以用于人体姿态识别和距离测量,实现智能灯光和空调的自动控制。

在工业自动化领域,单目摄像头可以用于机器人的定位和抓取物体,实现智能化生产和物流。

总之,单目摄像头测距是一种基于视差原理的测距技术,它通过图像处理技术实现对物体距离的测量。

在实际应用中,单目摄像头测距已经被广泛应用于无人驾驶、智能家居、工业自动化等领域,并发挥着重要的作用。

随着科技的不断发展,相信单目摄像头测距技术将会有更广阔的应用前景。

基于单目视觉传感器的车距测量与误差分析

基于单目视觉传感器的车距测量与误差分析

tefr l fds n ec luain b sd o a i igp ito a e l e s d d cd f m h ai h oy o h omuao it c ac lt ae n v ns n on fln i s i e u e r te b s te r f a o h n o c
将 式( ) 入式 () 化简得 4代 1并
摄像机拍摄 的图像进行重 建 , 以恢复 物体 的三维位置信 息 ,
算法非常复杂 。就 车距测 量 的实 际应用 而言 , 可以在 假设 路面平坦 的前提下 , 通过单 目视觉来完成 该项任务 川 。 文献 [2 1 ] 1 ,3 利用摄像 机 内部参数 和透 视投 影 的几何


的标定结果和针孔模 型下 的成像 几何 关 系 , 结合 车道线 消 失点和近视场特征点 的位 置 推导 出新 的车距 测量 公式 , 避


免 了对摄像机高度和俯仰 角等外部参数 的测量 。
图 1 基 于车 道 线 消 失 点 的 车 距 测 量 示 意 图
如图 1所示 , 假设 O 为摄像机 光心 , 垂直于路 面于 。 O,
与周 围车辆发 生碰 撞 , 要对本 车与其他 车辆之 间的车距 需
进 行测量。 目前 常 见 的 障 碍 物 测 距 主 要 采 用 的是 超 声
波… 、 毫米波雷达 、 激光 等主动 型传感 器或 以机 器 视觉为代表的被动型传 感器 。主动 型传感器 测量 直接 , 对 数据 处理能力要求不高 , 对气候依赖性小 , 在障碍物识别 和
p rome n e i e e t c mea i sal g h ih , i h n n r n ain a ge . o a e i h a t a e fr d u d r df r n a r n tl n eg t p t i g a d o e tt n l s C mp r d w t t e c u f i c i o h l

机器人技术中视觉测距的使用方法

机器人技术中视觉测距的使用方法

机器人技术中视觉测距的使用方法机器人技术的快速发展为我们的生活和工作带来了许多便利。

其中,视觉测距技术在机器人的应用中起着至关重要的作用。

视觉测距技术通过利用摄像头或激光雷达等设备,测量机器人与周围环境物体的距离,从而实现机器人的定位、导航和避障等功能。

本文将介绍机器人技术中视觉测距的使用方法,并探讨其在不同领域的应用。

一、摄像头测距方法:1.单目摄像头测距方法:单目摄像头测距方法是最常见的一种技术。

通过在机器人上安装一个摄像头,利用图像处理算法提取图像中的特征点,然后通过三角测量原理计算出机器人与目标物体之间的距离。

2.双目摄像头测距方法:双目摄像头测距是一种相对精确的测距方法。

它通过在机器人上安装两个摄像头,利用左右两个摄像头拍摄到的图像进行匹配,从而得到物体在图像中的视差值,再通过已知的参数关系计算出距离。

二、激光雷达测距方法:激光雷达是一种高精度的测距装置,其原理是利用激光束发射器发射激光束,当激光束与目标物体相遇时,激光会反射回接收器。

通过计算激光发射与接收之间的时间差,并结合已知的光速,可以计算出目标物体与机器人之间的距离。

三、视觉测距的应用领域:1.智能驾驶:视觉测距技术在无人驾驶领域具有广泛的应用。

通过摄像头或激光雷达等设备实时测量汽车与前方车辆的距离,可以帮助车辆进行智能的停车、避障以及自动跟车等功能,提高行驶安全性。

2.工业自动化:在工业领域中,机器人可以利用视觉测距技术对产品进行精确的定位和测量。

例如,在流水线上,机器人可以通过摄像头或激光雷达对产品的位置进行检测和校准,从而实现自动化生产。

3.医疗辅助:机器人在医疗领域的应用也离不开视觉测距技术。

例如,在手术过程中,机器人可以通过摄像头进行显微镜视觉测距,帮助医生实现精确的手术操作,提高手术的成功率和安全性。

4.智能家居:随着智能家居的发展,家庭机器人的需求越来越大。

视觉测距技术可以帮助家庭机器人实现室内导航、物品辨识和避障等功能。

单目摄像头测距的原理

单目摄像头测距的原理

单目摄像头测距的原理
单目摄像头测距的原理主要是基于目标物体在图像中的大小和位置关系来计算距离。

以下是一种常见的单目摄像头测距方法的详细介绍:
一、目标检测:
首先,通过图像处理算法,如边缘检测、特征提取等,在摄像头拍摄的图像中检测出目标物体的位置。

二、摄像机标定:
在进行测距之前,需要对摄像机进行标定。

标定的目的是确定摄像机的内外部参数,如焦距、光学中心、畸变系数等。

这些参数将用于后续的测距计算。

三、目标尺寸测量:
根据目标物体在图像中的像素尺寸,结合摄像机标定得到的参数,计算出目标物体在实际场景中的尺寸。

四、距离计算:
根据目标物体的实际尺寸和摄像机与目标物体之间的几何关系,使用相似三角形原理或其他测距算法,计算出目标物体与摄像机的距离。

具体的测距算法可能会因应用场景和要求的不同而有所差异。

例如,在一些简单情况下,可以通过目标物体在图像中的像素大小与实际尺寸之间的比例关系来直接计算
距离。

而在更复杂的情况下,可能需要考虑摄像机的视角、目标物体的形状和姿态等因素,使用更精确的数学模型和算法来计算距离。

需要注意的是,单目摄像头测距存在一些局限性,如无法直接获取深度信息、对环境光照和背景的变化比较敏感等。

为了提高测距的准确性和可靠性,可能需要结合其他传感器或技术,如立体视觉、结构光等。

此外,实际应用中还需要考虑到图像处理算法的精度、摄像机的安装位置和角度、目标物体的特征等因素,对测距结果进行校准和修正。

同时,不同的测距方法可能适用于不同的场景和要求,因此在选择和应用时需要根据具体情况进行评估和实验。

单目视觉测距原理

单目视觉测距原理

单目视觉测距原理单目视觉测距原理是一种利用单个摄像头来实现物体距离测量的方法。

该原理被广泛应用于自动驾驶、机器人导航、物体检测等领域。

下面我们将分步骤阐述单目视觉测距的原理及其应用。

第一步:相机成像原理相机成像是单目视觉测距的前提,相机将物体反射出的光线通过透镜导入成像器件,形成图像。

具体来说,相机的成像原理分为三个部分:透镜成像、透镜畸变和成像平面。

相机镜头通过调整曝光时间和焦距来调整图像亮度和对焦。

透镜畸变则是由于透镜对成像位置的不同偏差造成的。

成像平面则是图像被传感器接收所形成的平面。

以上三个部分直接影响了图像的成像质量。

第二步:三角测量原理单目视觉测距主要利用三角测量原理来确定物体的距离。

三角测量原理是指由已知物体实际尺寸和成像尺寸,结合成像信息和几何关系以及相机成像参数等信息,推算出物体距离的方法。

具体来说,三角测量原理主要包含以下内容:相机内外参数、特征点提取和匹配、相机矩阵计算和三角化。

其中相机内外参数为相机标定的结果,特征点提取和匹配则是对图像中有代表性的点进行检测和描述,相机矩阵的计算是将特征点的像素坐标映射到实际三维坐标。

最后,通过三维坐标的位置计算出物体距离。

第三步:单目视觉测距应用单目视觉测距的应用范围广泛,其主要应用如下:1.自动驾驶:自动驾驶汽车需要实现对周围环境进行检测,单目视觉测距可以实现对前方物体的距离识别,具有更快的响应时间和更高的精度。

2.机器人导航:机器人在导航时需要对周围环境进行判断和距离计算,单目视觉测距可以对机器人周围的障碍物进行距离计算和定位,帮助机器人实现准确导航。

3.物体检测:在物体检测中,单目视觉测距可以确定物体的位置和距离,进而实现物体的识别和分类。

物体检测是人工智能的重要应用之一。

总结:单目视觉测距原理是通过将已知物体实际尺寸和成像尺寸结合成像信息和几何关系以及相机成像参数等信息来推算出物体距离的方法,被广泛应用于自动驾驶、机器人导航、物体检测等领域。

基于单目视觉的特征点测距与定位方法研究

基于单目视觉的特征点测距与定位方法研究

一、概述1. 单目视觉在机器人、自动驾驶、增强现实等领域有着广泛的应用。

2. 特征点测距与定位是单目视觉中的关键问题,对于实现精准的测距与定位具有重要意义。

3. 本文旨在探讨基于单目视觉的特征点测距与定位方法,并结合实际案例进行研究与分析。

二、相关技术概述1. 单目视觉是指通过一台摄像头来获取环境信息,并进行图像处理与分析。

2. 特征点是图像中具有显著性的点,通过特征点能够实现对图像的测距与定位。

3. 基于单目视觉的特征点测距与定位方法主要包括特征提取、特征匹配、三维重建等步骤。

三、特征点测距与定位方法研究1. 特征提取a. 常用的特征提取算法包括SIFT、SURF、ORB等。

b. 不同的特征提取算法在不同场景下具有不同的适用性和性能表现。

2. 特征匹配a. 特征点匹配是特征点测距与定位中的关键一步,常用方法包括基于描述子的匹配和基于几何关系的匹配。

3. 三维重建a. 基于特征点的三维重建技术通过匹配特征点,并利用相机参数进行三维点云重建。

b. 三维重建的精度与效率对于测距与定位具有重要影响。

四、实际案例分析1. 无人驾驶车辆a. 基于单目视觉的特征点测距与定位方法在无人驾驶车辆中具有重要应用。

b. 通过对道路上的特征点进行测距与定位,能够帮助车辆进行自主驾驶。

2. 工业机器人a. 工业机器人需要精准的定位以完成复杂的操作任务,基于单目视觉的特征点测距与定位方法能够满足其定位需求。

b. 特征点测距与定位技术能够帮助机器人准确定位并实现精准操作。

五、未来展望1. 随着人工智能、计算机视觉等领域的快速发展,基于单目视觉的特征点测距与定位方法将更加成熟和广泛应用。

2. 随着硬件设备的不断升级,基于单目视觉的特征点测距与定位方法的精度和效率将得到进一步提升。

六、结论1. 基于单目视觉的特征点测距与定位方法具有重要的理论意义和实际应用价值。

2. 需要进一步研究和探索特征点测距与定位方法在不同领域的应用,以满足实际需求。

单目测距算法

单目测距算法

单⽬测距算法单⽬测距算法相似三⾓形⽤相似三⾓形计算物体或者⽬标到相机的距离,将使⽤相似三⾓形来计算相机到⼀个已知的物体或者⽬标的距离。

假设有⼀个宽度为 W 的⽬标或者物体。

然后将这个⽬标放在距离的相机为 D 的位置。

⽤相机对物体进⾏拍照并且测量物体的像素宽度 P。

这样就得出了相机焦距的公式:F = (P x D) / W举个例⼦,假设在离相机距离 D = 24 英⼨的地⽅放⼀张标准的 8.5 x 11 英⼨的 A4 纸(横着放;W = 11)并且拍下⼀张照⽚。

测量出照⽚中 A4 纸的像素宽度为 P = 249 像素。

因此的焦距 F 是:F = (248px x 24in) / 11in = 543.45。

当继续将的相机移动靠近或者离远物体或者⽬标时,可以⽤相似三⾓形来计算出物体离相机的距离:D’ = (W x F) / P。

例如,假设将相机移到距离⽬标 3 英尺(或者说 36 英⼨)的地⽅并且拍下上述的 A4 纸。

通过⾃动的图形处理可以获得图⽚中 A4 纸的像素距离为 170 像素。

将这个代⼊公式得:D’ = (11in x 543.45) / 170 = 35 英⼨或者约 36 英⼨,合 3 英尺。

从以上可以看到,要想得到距离,就要知道摄像头的焦距和⽬标物体的尺⼨⼤⼩,这两个已知条件根据公式: D’ = (W x F) / P 得出⽬标到摄像机的距离D,其中P是指像素距离,W是A4纸的宽度,F是摄像机焦距。

相机标定相机内参加上相机外参⼀共有⾄少8个参数,⽽我们要想消除相机的畸变,就要靠相机标定来求解这8个未知参数。

说完相机模型,⼜要说⼀下相机标定了,相机标定是为了求解上⾯这8个参数的,那求解出这8个参数可以⼲什么呢?可以进⾏软件消除畸变,也就是在得知上⾯8个参数后,利⽤上⾯罗列的数学计算式,将每个偏移的像素点归位。

标定需要⽤到⼀个叫标定板的东西,有很多种类,但常⽤的⼤概就是棋盘图了,棋盘要求精度需要很⾼,格⼦是正⽅形,买⼀张标定板很贵的,可以⽤word画⼀张,只要做⼀个5列7⾏的表格,拉⼤到全页,再设置每个格⼦的宽⾼来将它设为正⽅形再涂⾊就可以了。

面向智能交通的单目视觉测距方法研究

面向智能交通的单目视觉测距方法研究

面向智能交通的单目视觉测距方法研究邹斌;袁宇翔【摘要】与前方车辆距离是影响行车安全的重要因素,因此本文提出一种面向未来智能交通的前方车辆单目视觉测距方法.首先,提出融合物联网、智能识别、云计算技术的车联网模型,车辆可实时向车联网回传位置信息及前车图像,请求附近交通标志及前方车辆几何尺度信息,车辆端可计算图像坐标系下车道标志线、交通标志、车辆尺度信息.然后,建立单目相机数学模型,介绍以交通标志、车道分界线为合作标志的单目视觉测距方法.最后,综合应用单目视觉测距方法,设计了前方车辆自适应视觉测距方案.通过仿真实验,证明了单目视觉测距方法的正确性与有效性,可丰富驾驶辅助系统的前方车辆测距手段.【期刊名称】《交通运输系统工程与信息》【年(卷),期】2018(018)004【总页数】9页(P46-53,60)【关键词】综合交通运输;车辆测距;单目视觉;车道线检测;辅助驾驶【作者】邹斌;袁宇翔【作者单位】武汉理工大学现代汽车零部件技术湖北省重点实验室武汉430070;汽车零部件技术湖北省协同创新中心,武汉430070;武汉理工大学现代汽车零部件技术湖北省重点实验室武汉430070;汽车零部件技术湖北省协同创新中心,武汉430070【正文语种】中文【中图分类】TP242.60 引言安全车距是指后方车辆为避免与前方车辆发生意外碰撞与前车保持的必要间隔距离.ADAS(车辆驾驶辅助系统)可以依靠视觉传感器检测行人及交通标志,但由于相机安装基线短,双目视觉对远距离目标测距精度低,单目视觉在无几何约束下仅能确定目标方位,无法测量前方车辆距离.智能交通技术的不端发展,推动基于车联网[1-2]和智能识别[3-4]的道路标志识别方法,如依托车联网技术可以从网络中获得道路标志集合尺度信息,依托智能识别技术可以识别前方车辆车型与道路标志类型;科研人员同时还提出了依靠道路几何标志的前方车辆单目视觉测距方法,然而未考虑融合物联网、云计算等新方法,只能适用于单台车辆,以及固定有限的道路标识.为此,本文首先提出融合物联网、智能识别、云计算技术的车联网模型,在基础上提出以交通标志、车道分界线为合作标志的单目视觉测距方法,最后综合应用单目视觉测距方法,给出前方车辆自适应视觉测距方案.这种融合物联网、智能识别和云计算的前方单目视觉测距,对未来智能交通的辅助驾驶,能提供有效的车辆测距手段.1 适用于单目视觉测距的车联网模型设计1.1 车联网模型及交通要素目标识别原理如图1所示[2],车联网模型是实现单目视觉测距的物理基础.计算中心是车联网云模型的管理和计算中心,可通过中继站接收车辆运动信息并传输服务响应.中继站可和多个车辆、计算中心响应、通信.车辆端提供车辆导航、辅助驾驶功能.云计算模型客户端层为车载智能终端,可通过服务访问点向上层发送服务请求并接受服务响应.通信层通过服务访问点连接客户端和云端,融合互联网、3G/4G、卫星等多种通信网络.云层是车联网云模型的计算/控制/数据中心,可响应客户端服务请求,运算能力强.图1 适用于单目视觉测距的车联网模型Fig.1 Internet of cars for monocular vision measurement如图2所示,基于视觉的目标检测分类、车道线提取已在ADAS系统集成应用,具备向车联网模型移植条件.通过快速区域卷积神经网络可检测、识别交通目标[3-4],使用交通目标训练网络,获得样本候选区域并将坐标与视觉任务示例图像输入网络,得到深度卷积特征;然后,经过池化层将特征规格化并输入全连接层,并行回归计算特征分类及检测框坐标值;经多次迭代训练得到同视觉任务强相关的目标检测模型.在此基础上,通过全连接层获取包含每个候选区域的最终特征向量并输入到分类器,利用非极大值抑制,判断出候选区域的目标类别与位置;最后利用判断值与实际标注值之间的差别得到损失函数,通过反向传播与随机梯度下降法优化网络参数得到输出网络.实验证明,目标检测成功率超过85%,对15种交通标志分类成功率接近90%.为获取车辆宽度[1],研究人员使用AdaBoost和聚合通道特征对车辆初步检测,利用车辆几何尺寸约束滤除误检结果,在车辆ROI区域内利用车尾部特征对车辆精确定位.实验证明,检测车辆误差均值为1.086 3像素.为提取车道分界线,首先提取地平线及图像ROI区域,对道路图像二值处理并用Canny算子提取边缘;然后对图像逆透视变换得到俯视图像并进行Hough变换,调整Hough变换阈值参数及直线角度,筛选出车道线;最后,配准含车道线的图像,得到车道线轮廓及部分角点.图2 应用于自主驾驶的视觉目标检测分类、车道线提取功能Fig.2 Object detection and lane extraction function used in autonomous driving1.2 基于车联网云模型的单目视觉测距实现方法图3给出了基于车联网云模型的单目视觉测距实现方法,车辆端采集道路前方图像后,在计算中心、中继站分别运行前车目标、交通标志检测识别分类功能,返回前方车辆及交通标志尺度信息;在车辆端部署车道分界线提取功能,向附近中继站请求其尺度信息.根据车载毫米波雷达输出的前车距离信息,选取辅助合作标志从而确定单目视觉测量策略.车辆端汇集全部几何尺度信息实现前车测距.当车辆行驶环境要素变化较小时,通过计算中心、中继站一次性检测、车辆端持续跟踪目标、实时测距,使计算任务同计算能力相匹配,可确保单目视觉测距功能实时性.2 应用道路合作标志的单目视觉测距方法图3 单目视觉测距实现方法Fig.3 Realization of monocular visual measurement如图4所示,车道分界线在不同环境下其长度、宽度、前后间隔为固定值;车道上方交通标志包括主要标志和辅助标志,主要标志又分为指示标志、指路标志等6种,其中指示及指路标志的高度、宽度有着统一规定.应用车载单目相机测量前方车辆距离时,可引入车道分界线、指路标志尺寸信息,合理设定坐标系,实现前方车辆测距.2.1 单目视觉测量数学建模根据相机数学模型[7-8],利用几何尺寸固定的合作标志,获取前方车辆深度信息.参考典型单目视觉成像模型,建立世界坐标系O-XwYwZw、相机坐标系O-XcYcZc、图像物理坐标系o-xy、图像坐标系I-uv,如图5所示.若世界坐标系某一坐标点Po(Xw,Yw,Zw),该点从世界坐标系转换到相机坐标系下坐标为(Xc,Yc,Zc),再转换到像平面坐标系下坐标为(x,y),再转换到图像坐标系下像素坐标为(u,v),上述转换关系用齐次坐标系表示为图4 用于辅助单目视觉测量的交通标志Fig.4 Traffic signs for monocular visual measurement图5 视觉测量坐标系模型Fig.5 Visual measurement coordinate systemmodel式中:R为3×3正交变换矩阵;T为三维平移向量;OT=(0,0,0)T;f为相机焦距;u0,v0为CCD相机光轴与像平面交点(x0,y0)的坐标;dx,dy为CCD光电耦合元件的尺寸大小;kx,ky为X,Y轴方向的放大系数;Min为相机内参数矩阵mij(i=1,2,3;j=1,2,3,4)投影矩阵参数.2.2 基于水平方向合作标志的单目视觉测距对于某个在世界坐标系下坐标已知的空间点,通过相机在图像坐标系成像,成像点(u,v)和空间点(Xw,Yw,Zw)可由式(2)获得.设相机主光轴与水平地面近似平行,则可认为道路上所有位置已知点的坐标Zw=0.通过增加上述几何约束,可以简化式(3).如果存在n个空间点,且世界坐标系下(Xwi,Ywi,Zwi)坐标已知;同时,通过直线检测方法提取出各空间点在图像坐标系下的坐标(ui,vi),且m34≠ 0,则可获得式中TB=[u1v1…unvn]T,由式(3)可知,获取场景中4组以上空间点在世界坐标系下的坐标,可以求解系数矩阵m'为图6 基于水平方向合作标志的目标测距Fig.6 Visual measurement based on horizontal cooperative sign如图6所示,获得系数矩阵m'后,通过车辆目标识别分割,推算前方车辆目标外接矩形同道路平面交线L0的两个端点为Car1,Car2,在图像中坐标(u1,v1),(u2,v2),可以得出前方车辆在世界坐标系下的位置Pcar1(Xw1,Yw1,Zw1),Pcar2(Xw2,Yw2,Zw2).前方车辆、本车均在道路平面行驶,即Zwi=0.通过计算中心对前方车辆进行车型识别,获取车辆类型及车辆世界坐标系下水平方向宽度,即交线L0两端点Car1,Car2的几何关系为综合上述几何约束及投影关系,计算前方车辆在世界坐标系下的位置,即由于式(6)为超定方程,通过最小二乘方法,解得未知量X=[Xw1,Yw1,Xw2,Yw2]T,则前方车辆距本车距离为2.3 基于垂直(光轴)方向合作标志的单目视觉测距除车道分界线外,道路中矩形交通标志可应用于前方车辆距离测量.若上述矩形在相机空间坐标系和图像坐标系下面积已知,且矩形目标平面同相机主光轴垂直,可以计算出矩形目标在相机坐标系下的空间位置[7].图7 基于垂直方向合作标志的目标测距Fig.7 Vision measurement based on vertical cooperative sign如图7所示,假设车载相机镜头畸变较小,在车辆前方Zc=Zc0平面上,有一矩形目标,宽高比为α,目标宽为L1,高为L2,面积为S,为设其4个角点在相机坐标系下的坐标为(XC1,YC1,ZC0),(XC2,YC2,ZC0),(XC3,YC3,ZC0),(XC4,YC4,ZC0);在像平面成像后,目标在图像坐标系下坐标为(u1,v1),(u2,v2),(u3,v3),(u4,v4),宽为l1,高为l2,面积为s,且图像坐标系的成像平面中心点为(u0,v0),则像素(ui,vi)和空间点(Xci,Yci,Zc0)间的对应关系为则可以计算出矩形目标的深度,即前方车辆同本车距离为式中:kx,ky分别为X,Y轴方向放大系数,根据Faugeras提出的线性模型摄像机内外参数标定方法,在相机使用前将相机内参数预先标定,利用6个及以上控制点,代入式(2),组成超定方程,通过最小二乘方法,求解矩阵M的各个参数,其中,令m1=[m11m12m13]T,m2=[m21m22m23]T,则kx=‖m1⋅m3‖,ky=‖m2⋅m3‖.3 前方车辆自适应视觉测距方案设计城市内车道分界线常为划2 m间隔4 m;交通标志常出现在路口附近,如矩形交通指示牌尺寸宽为4 m,高为2 m.如图8所示,车辆应参考车载毫米波雷达测距信息获取前车距离范围,自适应选取相机视野内含几何约束的交通标志,确保单目视觉测距连续、可用.图8 单目视觉测距合作标志应用策略Fig.8 Application of monocular vision measurement如图8(a)所示,前车距离2 m<D≤10 m,相机视野内车道分界线不完整,当前车尾部可见时,可用于辅助视觉测距.通过计算中心识别前方车型,返回前方车辆尾部面积信息S,车辆端获取前车在图像坐标系下面积为s;选用垂直方向合作目标辅助测距方法,预先标定相机参数kx,ky,则前方车辆距离为如图8(b)所示,前车距离10 m<D≤20 m,相机视野内前车尾部、车道两侧边界线可作为合作标志辅助视觉测距.计算中心识别车型返回尾部宽度信息L0,车辆端获取分界线的图像坐标(ui,vi),i=1,2,3,…,8,推算车辆尾部平面同道路平面交界线的端点(u10,v10)、(u20,v20);车辆端通过向中继站请求该区域车道分界线、交通标志尺度信息,并合理设置世界坐标系原点,推算合作标志坐标(Xi,Yi,Zi),i=1,2,3,…,8,获得透视参数矩阵m';根据透视投影关系,建立融合车辆宽度信息的超定方程,通过最小二乘方法,解得车辆尾部平面同道路平面交线端点坐标X=[Xw1,Yw1,Xw2,Yw2]T,则前方车辆距离为如图8(c)所示,前车距离20 m<D≤30 m,相机视野内前车尾部、车道两侧边界线可作为合作标志辅助视觉测距.在该距离下,车辆尾部可见,车道分界线距相机较远的角点不能准确提取,故利用车道线两侧端点作为几何约束,则前方车辆距离为如图8(d)所示,前车距离D>30 m,相机视野内远方车道边界线不清晰,前车尾部、交通标志可作为合作标志辅助视觉测距.通过计算中心进行车型识别,向车辆端返回前方车辆尾部、交通标志面积信息S1、S2,车辆端获取前车目标的坐标,在图像坐标系下面积为s1、s2;选用垂直方向合作目标辅助测距,车辆同最近交通标志距离为D1,则前方车辆距离为4 实验及分析4.1 仿真实验通过AutoCAD构建4个三维模型,对式(10)~式(13)所述4种工况进行验证.环境中车道宽为4 m,车道线长2 m、宽0.2 m;矩形交通标志宽4 m,高2 m;模拟车载相机安装位置为(0 m,0 m,2 m),焦距30 mm,图像分辨率为1024×768,内参数kx、ky乘积为;前方货车高度设为4.5 m,宽度约为3.4 m,每个环境的场景与相机视图如图9所示.根据前文分析结果,前方车距变化时,选用视场内相应的交通标识空间及图像坐标作为几何约束,如表1所示,获得前方车辆单目视觉测距结果,如表2和表3所示.表1 视觉测距应用的几何约束Table 1 Geometric constraint of monocularvision measurement注:○表示不使用,●表示使用交通标志车辆尾部车道分界线前车距离D/m(2,10](10,20](20,30]>30○○○●●○○●○●●○图9 单目视觉测量仿真实验Fig.9 Experiment of monocular vision measurement表2 单目视觉测距结果1(仿真)Table 2 Result of monocular vision measurement观测距离(2,10]>30观测目标车辆尾部车辆尾部交通标志空间坐标图像坐标宽度/m 3.400 3.400 4.000高度/m 4.492 4.492 2.000面积/m2 15.274 15.274 8.000宽度315 69 96高度/pi 418 92 48面积/pi2 131 670 6 348 4 608测量值9.166 0 41.929 4真实值9.364 41.8604.2 真实环境如图10所示,使用测距仪(200 m测距误差1%)测量前方目标距离10.600 m,使用分辨率1 080×1 440的相机采集图像;车道宽4 m,矩形交通指示牌宽4 m,高2 m,前方车辆宽1.51 m,高1.86 m,视觉测距结果如表4和表5所示.表3 单目视觉测距结果2(仿真)Table 3 Result of monocular vision measurement观测距离车道分界线几何约束测量结果/m真实值/m(10,20]16.39417.337(20,30]空间坐标/m(-4,8,0)(-3.8,8,0)(0,8,0)(0.2,8,0)(-4,12,0)(-3.8,12,0)(0,12,0)(0.2,12,0)(-4,12,0)(-4,14,0)(-4,18,0)(-4,20,0)(0.2,12,0)(0.2,14,0)(0.2,18,0)(0.2,20,0)图像坐标/pi(76,610)(98,610)(512,610)(532,610)(223,535)(236,535)(512,535)(525,535)( 223,535)(263,514)(319,484)(336,475)(525,535)(524,514)(520,484)(520,475)2 1.25723.341图10 测量环境、工程侦查测距仪及真实环境实验Fig.10 Engineering investigation rangefinder prototype and real environment experiment表4 单目视觉测距结果1(真实环境)Table 4 Result of monocular visionmeasurement in real envirnment观测目标车辆尾部空间坐标宽度/m 1.51高度/m 1.86面积/m2 2.809图像坐标宽度141高度/pi 161面积/pi2 22 701测量值11.570真实值10.600表5 单目视觉测距结果2(真实环境)Table 5 Result of monocular vision measurement in real envirnment观测目标测量结果/m真实值/m车道分界线车道分界线几何约束空间坐标/m(0,0,0)(0,4,0)(0,6,0)(0,10,0)图像坐标/pi(834,1 238)(750,985)(728,911)(707,853)12.15910.600分析上述实验结果可得结论如下:(1)单目视觉测距精度随前车距离增加而降低.(2)选用垂直合作标志的单目视觉测距精度高于选用水平合作标志的单目视觉测距精度,当视野内同时出现两种合作标志,优先选用垂直合作标志作为辅助定位标志;(3)若前方车辆距离在40 m内,且图像中车辆宽度提取误差小于6 pixel,则视觉测距误差不超过10%,可作为驾驶辅助系统测距手段之一,实现视觉同雷达“识别—探测”数据融合.5 结论本文介绍了一种面向未来智能交通系统的前方车辆单目视觉测量方法,车辆获得多种道路要素几何尺度信息后实现前方车辆距离单目视觉测量;与毫米波雷达同时使用,可丰富ADAS系统测距手段.本文提出了单目视觉测距功能在车联网模型中部署方案,使用静态方法测试了单目视觉测距正确性.未来应重点提升单目视觉测量精度,提升方案同智能交通系统、ADAS适配性、兼容性.【相关文献】[1]李祎承,胡钊政,胡月志,等.基于GPS与图像融合的智能车辆高精度定位算法[J].交通运输系统工程与信息,2017,17(3):112-119.[LI Y C,HU Z Z,HU Y Z,et al.Accurate localization based on GPS and image fusion for intelligent vehicles[J].Journal of Transportation Systems Engineering and Information Technology,2017,17(3):112-119.][2]覃华.大数据驱动的车联网信息物理融合系统的分析与设计方法[D].广州:广东工业大学,2016.[QIN H.The analysis and design method of big data-driven vehicular network cyber-physical system[D].Guangzhou:Guangdong Institute of Technology,2016.][3]钟晓明,余贵珍,马亚龙,等.基于快速区域卷积神经网络的交通标志识别算法研究[C].2016中国汽车工程学会年会论文集,2016.[ZHONG X M,YU G Z,MA Y L,et al.Traffic sign recognition based on fast regionbased convolutional neural networks[C].2016 CG-IVT,2016.][4]曹诗雨,刘跃虎,李辛昭.基于Fast R-CNN的车辆目标检测[J].中国图象图形学报,2017,22(5):671-677.[CAO S Y,LIU Y H,LI X Z.Vehicle detection method based on fast R-CNN[J].Journal of Image and Graphics,2017,22(5):671-677.][5]王乐芬.基于单目视觉的多特征前方车辆检测及测距方法研究[D].秦皇岛:燕山大学,2016.[WANG L F.Study on preceding vehicles detection with multifeatures and distance measurement based on monocular vision[D].Qinhuangdao:Yanshan University,2016.] [6]佟卓远.基于机器视觉的前方车辆检测与测距系统设计[D].哈尔滨:哈尔滨工业大学,2015.[TONG Z Y.The design of preceding vehicles detection and distance measurementsystem based on machinevision[D].Harbin:Harbin Institute of Technology,2015.][7]徐德,谭民,李原.机器人视觉测量与控制(第2版)[M].北京:国防工业出版社,2011.[XU D,TAN M,LI Y,Visual measurement and control for robot(2nd edition)[M].Beijing:National Defense Industry Press,2011.][8]XU L,CAO Z,LIU X.A monocular vision system for pose measurement in indoor environment[C].IEEE International Conference on Robotics and Biomimetics,IEEE,2017:1977-1982.。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

图 2:单目相机测距原理 其中,O0 是镜头的中心;O(x0, y0 ) 是光轴与像平面的交点,作为像平面坐标系的 原点; P'(x, y) 是被测点 P 在像平面的投影。那么,有几何关系:
(8)
tan h d
(9)
tan OP' f
(10)
联解(1、 (2)和(3)式பைடு நூலகம்有:
d h t a n( ) h t an [ a r Oc 'tPa n f(
单目视觉测距
一、单目视觉测距背景
单目视觉测距一般采用对应点标定法来获取图像的深度信息,对应点标定法是指 通过不同坐标系中对应点的对应坐标求解坐标系的转换关系,但对应点标定法,在标 定过程中,由于受器材限制,仍无法做到十分精确地记录一个点在世界坐标系和图像 坐标系中的对应坐标如果其坐标不够精确,那么得到的转换矩阵的精确度也会受到制 约,坐标转换结果的精度也会因此而波动,由于对应点标定法对于摄像机的标定是在 摄像机的各个角度及高度已经确定的情况下进行的,当摄像机的任何一个参数发生变 化时,都要重新进行标定,以得到在该种具体情况下的转换矩阵,所以该方法仅适用 于位置固定的摄像机的情况,而对于应用在移动载体上的摄像机来说,由于摄像机载 体在运动过程中会使摄像机的参数发生变化,所以适用性受到了限制,本方案中所采 用的几何关系推导法较好地解决了对应点标定法的不足它是根据摄像机投影模型,通 过几何推导来得到世界坐标系和图像坐标系之间的关系。
标,即目标点载体在垂线方向上的距离。 x 是 P(x, y) 点在载体坐标系下的横坐标,即 目标点与载体在水平方向上的距离, 表示点 P 与前进方向上的夹角,而 L 则表示所 求目标点与载体之间的距离。
2.2 单目测距方法二
假设,有效焦距为 f 的 CCD 摄像机安装在载体的顶部, 俯仰角度,距离地面 的高度为 h ;地面上有某个被测点 P ;点 P 与镜头中心的水平距离为 d 。则被测点与 摄像机的光学成像几何关系如图 2 所示:
二、单目视觉测距原理
基于单目视觉的测量方法需要从二维的图像信息中获取三维空间中的位置信 息,必须加以适当的约束(载体在平面运动,摄像头高度固定,保持视角与地面平行) 要确定摄像机的图像坐标系与物理空间中的三维参考坐标系之间的精确对应关系需 要对摄像机进行标定标定需要大量的矩阵运算,需要通过大量的优化,才能保证测距 的实时性。
arctan(H / y1)
(1)
arctan(H /( y1 y2))
(2)
arctan(x1/ y1)
(3)
其中, H , y1, y2和x1可以通过测量得到。在得出了 , 和 角之后,就可以很
方便的推导出 x 和 y 的计算法公式:
y H tan[(90 ) ( Sy u )( )]
)]
(11)
其中, h 和 已知, P' 满足:
OP'2 ( y2 x2 )
(12)
如果 (u, v) 为以像素为单位的图像坐标系的坐标,那么一个像素对应于像平面在 x
轴和 y 轴方向上的物理尺寸分别为 dx 、 dy ,有:
u 1 dx 0 u0 x
v
0
1 dy
v0
y
(13)
1 0 0 1 1
点的像平面坐标,测距的目的就是将图像中目标特征点 p 的像平面坐标 (u,v) 转换为
其在机器人坐标系 xoy 下的坐标 P(x, y)
图 1:单目针孔模型相机测距原理 在上图中,摄像机被固定,并向下倾斜一定的角度 P 是物体, p 是物体在图像中
的特征点, H 是摄像机到地面的垂直距离, y1 是摄像机垂直视角投影在地面上的最
2.1 单目测距方法一
基于以上的考虑,利用几何关系确定物体在世界坐标中位置点与其像点之间的 数学关系表达式,即确定摄像机成像几何模型而在线性摄像机模型中应用较多的是针 孔模型,因此采用针孔模型测距原理进行分析与研究图 1 显示了针孔模型测距原理, 如图所示, P(x, y) 点是世界坐标系中的一点, (u, v) 是其在摄像机成像平面上的特征
xc xw
r11 r12 r13 xw
yc
R
yw
T
r21
r22
r23
yw
T
(16)
zc zw
r31 r32 r33 zw
其中, T [tx , ty , tz ]' 是世界坐标系原点在摄像机坐标系中的坐标,
cos cos
cos sin
sin
和式(15)可以求得测点 P 与摄像机之间的距离 d 。
三、摄像机标定
如下图 3 所示,在摄像机机标定过程中,一般包括三个层次的坐标系:世界坐标
系( xw, yw, zw )、摄像机坐标系( xc , yc , zc )和图像坐标系(包括物理坐标系( x, y )和像
素坐标系( u, v ))。
图 3:三个不同层次的坐标系统 世界坐标系中的点到摄像机坐标系的变换可由一个正交旋转变换矩阵 R 和一个平 移变换矩阵 T 表示为:
近距离, y1 y2 是摄像机垂直视角投影在地面上的最远距离, x1 是当摄像机垂直视
角投影在地面上的距离最近时,其水平视角投影在地面上的距离。 和 分别是摄像
机垂直视角射线与地平面 y 轴的最大和最小夹角, 是摄像机水平视角在地面上的投
影与地平面 y 轴夹角。由摄像机针孔模型的几何关系可知, , , 可由下式推导得到:
则 x (u u0)dx, y (v v0)dy 。带入式(13)有:
OP'2 [(u u0 )dx]2 [(v v0 )dy]2
(14)
令x f dx , y f dy ,有:
(OP' f )2 [(u u0 ) x ]2 [(v v0 ) y ]2
(15)
其中, x , y ,u0和v0 是摄像机内部参数,可由摄像机定标来确定。联解式(11)
(4)
Sy
x
y
tan[( Sy
u )
]
(5)
Sy
( Sx u )
(6)
Sx
L x2 y2
(7)
其中, u, v 分别表示特征点 p 在图像平面上的行数和列数, Sx 和 Sy 分别表示图
像平面在 x 和 y 方向上的总的行数和列数。 y 是点 P(x, y) 在载体坐标系 xoy 下的纵坐
相关文档
最新文档