基于双目视觉的目标测距
基于双目视觉的无人机测距与避障方法研究
科技风2019年1月电子信息4D O I:10.19392/ki.1671-7341.201901082基于双目视觉的无人机测距与避障方法研究孔繁淇中国民航大学天津300300摘要:双目视觉技术借助人通过双眼感知立体空间的能力,在双目摄像头的帮助下,重建空间中事物的三维信息。
双目视 觉还可以通过测距来实现对障碍物躲避的功能。
本文主要针对双目视觉技术在无人机避障中的部分技术进行探索与研究。
关键词:双目视觉;无人机;避障;算法设计1研究背景及意义视觉是人类感知外部世界的主要途径,人类视觉为人类提 供了周围环境最可靠最详细的信息。
人类的双眼获取和处理 视觉信息就相当于两台摄像机对环境进行拍摄得到的双目视 频,通过识别与匹配,从而获得物体在三维世界中的位置信息,[1]进而实现对于障碍物的躲避功能。
随着计算机速度的加 快,制造行业的迅猛发展,双目视觉技术也逐渐的展露出了优 势,例如:制造成本低、消耗能源少、应变能力强的优势。
基于 术双目技术这些方面的优势,近些年,人们越来越重视将视觉 传感器应用于障碍物识别、机器人导航等领域中。
2摄像机的标定2.1摄像机模型针孔模型是摄像头的最简单模型。
其原理是,光线从场景 或物体发射过来,经过一个点可认为针孔,被投影到成像表面,在图像平面上,图像被聚焦。
因此与远处物体相关的图像大小 可以只用一个摄像头参数来描述:焦距。
图1针孔模型2.2视觉系统坐标系在计算机视觉中,由于一个成像物体以多种形式存在于多 种空间中,因此需要建立对于不同情况下的图像参考坐标系,其主要包括:1)计算机图像坐标系:在计算机视觉中,摄像机感光元件 获得的像素信息经过处理后都由数组中的一个元素代替,每一 个元素的值即代表了该像素点的值。
2)成像平面坐标系:成像 平面坐标系与计算机图像坐标系的不同在于其以图象的01为 原点,其中〇1点一般与计算机图像平面的中心点相对应。
3) 摄像机坐标系:摄像机坐标系是基于摄像机、关于空间位置的 三维坐标系,坐标系原点是摄像机镜头的光心,摄像机的主光 轴为坐标系Z轴,X、Y轴构成的平面平行则与像平面平行。
双目立体视觉测距流程
双目立体视觉测距流程下载温馨提示:该文档是我店铺精心编制而成,希望大家下载以后,能够帮助大家解决实际的问题。
文档下载后可定制随意修改,请根据实际需要进行相应的调整和使用,谢谢!并且,本店铺为大家提供各种各样类型的实用资料,如教育随笔、日记赏析、句子摘抄、古诗大全、经典美文、话题作文、工作总结、词语解析、文案摘录、其他资料等等,如想了解不同资料格式和写法,敬请关注!Download tips: This document is carefully compiled by theeditor. I hope that after you download them,they can help yousolve practical problems. The document can be customized andmodified after downloading,please adjust and use it according toactual needs, thank you!In addition, our shop provides you with various types ofpractical materials,such as educational essays, diaryappreciation,sentence excerpts,ancient poems,classic articles,topic composition,work summary,word parsing,copy excerpts,other materials and so on,want to know different data formats andwriting methods,please pay attention!双目立体视觉测距是一种通过两个摄像头获取物体的三维信息,从而计算出物体距离的技术。
基于双目视觉的识别测距系统设计
第12期2023年6月无线互联科技Wireless Internet TechnologyNo.12June,2023作者简介:张润豪(1997 ),男,浙江温州人,硕士研究生;研究方向:图像处理,控制工程㊂基于双目视觉的识别测距系统设计张润豪,杨㊀瑞,管㊀艳(西京学院计算机学院,陕西西安710123)摘要:双目视觉的识别测距主要通过双目视觉系统模拟人的 双眼 ,从而获得物体的形状和距离的远近㊂文章提出一种目标识别测距系统,构建卷积神经网络模型,利用图像处理技术识别目标以及三角相似原理计算目标距离,最后达到识别和检测的目的㊂实验结果表明,所设计的目标识别测距系统能够同时保证特定目标的检测和测距,具有一定的研究意义㊂关键词:双目视觉;识别测距;神经网络中图分类号:TP391.41㊀㊀文献标志码:A 0㊀引言㊀㊀随着农业自动化的发展,水果的自动化与智能化采摘技术研究已成为当今的研究热点㊂然而,水果的采摘方式与其他作物不同,需要进行准确的采摘㊂因此,依靠双目视觉实现对目标物的准确识别和定位十分重要㊂双目视觉对于危险生产场所的检测㊁非接触产品的质量检测以及位置随机移动物体的实时检测具有重要的研究意义和应用价值[1]㊂双目视觉技术还可应用于机械臂㊁智能家居㊁智能制造㊁工业等具有巨大潜力的领域[2]㊂其他测距方法测距误差较大,测量范围受限,而双目视觉技术可以在不接触目标物的情况下识别和定位目标物,还可以估计目标物的深度信息㊂因此,本文选择双目测距法㊂然而,同时具备目标物识别和测距的系统比较少,不能满足指定工作的需求[3-5]㊂针对上述存在的问题,结合双目视觉和机器学习等技术[6-9],本文提出了基于双目视觉的目标检测测距方法,设计了一个基于双目视觉的目标检测测距系统㊂该系统能够实现对目标物的识别和定位,使人们可以利用计算机技术模拟人眼,方便后期的操作㊂该系统利用卷积神经网络对物体进行识别,再根据双目相机测距原理,最后得到目标与摄像头之间的距离,从而最终实现定位㊂1㊀双目视觉系统㊀㊀双目系统主要由两款相同的摄像头组成,保持在同一个水平面上,并共享一个共同的观察区㊂距离测量是用三角数学方法进行的㊂测距的原理如图1所示㊂O 1和O 2分别为两个摄像头的光圈中心,它们之间的长度为B ㊂点P 为空间中的待测目标物,P 1(x 1,y 1)和P 2(x 2,y 2)为点P 在双目相机成像平面所成的点㊂当焦距为f 时,根据三角形原理可得:图1㊀测距原理B -x 1+x 2Z -f =B Z(1)Z =fB x 1-x 2(2)根据公式(1)和(2),设P 为空间中的一点,在空间坐标系和相机坐标系中的坐标点为(X ,Y ,Z ),(Xᶄ,Yᶄ,Zᶄ)㊂图像坐标系和像素坐标系表示为(x ,y )和(u ,v )㊂空间坐标系经变化到相机坐标系,有:XᶄY ᶄZ ᶄéëêêêùûúúú=R X Y Z éëêêêùûúúú+T (3)根据投影原理,把空间上的点投影到平面上,可得到相机坐标系到图像坐标系的转换关系,即:x y éëêêùûúú=f X ᶄZ ᶄf Y ᶄz ᶄéëêêêêùûúúúú(4)图像坐标系的起点是相机光轴和图像平面的交点,像素坐标系起点从像素阵列中的第一个点开始,图像坐标系转换到像素坐标系:u v éëêêùûúú=x dx +u 0y dy +v 0éëêêêêùûúúúú(5)由以上式可得:Z ᶄu v 1éëêêêùûúúú=1dx 0u 001dy v 0001éëêêêêêêùûúúúúúúf 0000f 000010éëêêêùûúúúR T 01éëêêùûúúX Y Z 1éëêêêêùûúúúú=f xu 000f y v 000010éëêêêùûúúúR T 01éëêêùûúúX Y Z 1éëêêêêùûúúúú(6)公式(6)中的矩阵代表着相机的内外参数,通过相机的标定获得具体参数㊂双目视觉测距是采用双目视觉技术来测量物体距离的原理,通过两台摄像机拍摄同一场景生成图像视差,并根据该视差建立物距测量模型,实现场景距㊀㊀离的实时计算㊂O l 和O r 为光圈中心,T ,f 为相机基线距离和焦距,P l 和P r 为图像坐标系的点,Z 为垂直距离㊂根据三角形相似:T -(X l -X r )T =Z -fZ(7)推出点P 与相机距离Z 的表达式为:Z =fT X l -X r =fTd(8)公式(8)式中,左右相机视差d =X l -X r双目测距系统的流程如图2所示,各个坐标系之间的转换关系如图3所示㊂图2㊀双目系统流程图3㊀各个坐标系转换2 双目相机标定2.1㊀相机标定㊀㊀双目相机中内部和外部参数和畸变参数的精度直接影响后续测量的精度㊂因此,文章选用了具有精度高㊁操作方便的张正友标定法㊂本文自制一个黑白棋盘,并将其固定在一个纸板上,如图4所示㊂首先,使用双目相机在不同的位置和角度拍摄大约30幅棋盘图像㊂其次,将图像分别导入MATLAB 进行检测校正㊂最后,经过计算和分析,利用棋盘校准板获得左右相机内部和外部参数及其位置的三维视图㊂标定结果如图5所示㊂2.2㊀立体校正㊀㊀把实际中非共面行对准的两幅图像,校正成共面行对准,提高匹配搜索的效率㊂将消除畸变后的两幅图像严格地对应,利用极线约束使得两幅图像的对极线恰好在同一水平线上,这样一幅图像上任意一点与其在另一幅图像上的对应点就必然具有相同的行号,只需在该行进行一维搜索即可匹配到对应点㊂根据摄像头标定后获得的双目相对位置对左右视图进行消除畸变和行对准,如图6所示㊂图4㊀标定板角点图5㊀标定板平面位置和标定误差图6㊀校正后图像2.3㊀立体匹配㊀㊀立体匹配主要计算视差㊂基于双目测距原理的分析使得可以通过计算由左右摄像机拍摄的每个图像相应点的视差来获得关于图像深度的信息㊂双目立体视觉的三维重建过程中,需要通过立体匹配算法进行视差图的计算得到左右两幅图像的视差值,进而计算深度以恢复场景的三维信息㊂要计算左右视图中三维场景中目标点生成的视差,左右视图中的两个对应像点必须与该点匹配㊂然而,协调二维空间中的对应点需要很长时间才能缩小适当的搜索范围,需要进行双目相机的立体校正,将二维上的匹配搜索降低到一维㊂立体匹配后,得到的视差图如图7所示㊂图7㊀视差3 图像识别定位测距3.1㊀数据标注和图片训练㊀㊀数据标注是处理原始语音㊁图像㊁文本㊁视频和其他数据并将其转换为机器可读信息的过程㊂机器无法识别和研究未标记的原始数据㊂原始数据只有经过标注处理成为结构化数据后才能被算法训练所使用㊂整个数据标注的过程如下:首先,将要标注的物体制作成数据集,并且图片越多越好,如果样本过少,模型训练和预测都会受到影响,非常容易欠拟合;其次,通过Labelme 工具进行标注,如图8所示;最后,将数据集分为训练集㊁验证集和测试集㊂数据标注完成后,需要对标注的数据集图片进行训练,图片训练完成后,可以看到训练好的模型的权重和PR Curve 曲线㊁Confusion Matrix (混淆矩阵)等训练过程数据㊂然后可以用训练的模型进行测试,配合双目摄像头,可以实现对特定物体的实时识别,如图9所示㊂3.2㊀双目识别测距㊀㊀双目相机的工作方式与人眼相同㊂人眼感知物体距离的能力基于两只眼睛在同一物体上呈现的图像差异,也称为视差㊂把物体识别和双目测距结合在一起,融合了卷积神经网络,不仅能够对物体进行识别,还能够进行测距㊂本文通过深度学习技术与传统算法的结合,利用双目相机实现了物体的精准测距㊂通过网络框的置信度确定识别的准确度,计算表达式为:图8㊀标注图9㊀灰度图和识别信度Pr (object )ˑIOU truth pred(9)IOU truth pred=area (BB dt ɘBB gt )area (BB dt ɣBB gt )(10)Pr (object )为训练样本的概率;BB gt 为物体标签的可行度,BB dt 分为网络预测的可信度;area 为面积函数㊂测距效果如图10所示㊂图10㊀双目测距4 结语㊀㊀在目标识别的基础上,建立双目系统,开发并实㊀㊀施基于双目视觉和机器学习的识别和定位系统㊂该系统已被证明具有一定的精度和稳定性㊂通过对双目距离原理的研究,本文开发了一种基于双目视觉的目标测距和检测系统,通过收集图像㊁校准相机㊁处理图像并进行比较,最后进行目标测试㊂实验表明,目标测距和检测系统具有良好的精度和可行性㊂下一步,笔者将继续深入研究㊁分析和提高双目视觉,消除系统测量的准确性和可靠性,研究双目视觉在智能制造设备和相关智能场景中的应用㊂参考文献[1]任慧娟,金守峰,程云飞,等.面向分拣机器人的多目标视觉识别定位方法[J ].机械与电子,2019(12):64-68.[2]赵刚,郭晓康,刘德政,等.随机工件的点云场景CAD 模型的快速识别与定位[J ].激光与红外,2019(12):1490-1496.[3]柴钰,许继科.基于机器视觉的目标识别与定位系统[J ].计算机工程与设计,2019(12):3557-3562.[4]连黎明.基于多信息融合的移动机器人定位算法[J ].西南师范大学学报(自然科学版),2019(9):89-95.[5]蒋萌,王尧尧,陈柏.基于双目视觉的目标识别与定位研究[J ].机电工程,2018(4):414-419.[6]王德海,洪伟,程群哲.基于双目立体视觉的目标识别与定位[J ].吉林大学学报(信息科学版),2016(2):289-295.[7]高如新,王俊孟.基于双目视觉的目标识别与定位[J ].河南理工大学学报(自然科学版),2014(4):495-500.[8]袁小平,张毅,张侠,等.基于改进FAST 检测的ORB 特征匹配算法[J ].科学技术与工程,2019(21):233-238.[9]BOYKOV Y ,VEKSLER O ,ZABIH R.Fast approximate energy minimization via graph cuts [J ].IEEE Transactions on Pattern Analysis and Machine Intelligence ,2001(11):1222-1239.(编辑㊀王雪芬)Design of recognition and ranging system based on binocular visionZhang Runhao Yang Rui Guan YanSchool of Computer Science Xijing University Shaanxi 710123 ChinaAbstract The recognition and ranging of binocular vision mainly uses a binocular vision system to simulate the eyes of humans thereby obtaining the shape of objects and the distance between them.This paper proposes a target recognition and ranging system constructs a convolutional neural network model uses image processing technology to identify the target and calculates the target distance based on the triangular similarity principle finally achieving recognition and detection.Experimental results show that the designed target recognition and ranging system can simultaneously ensure the detection and ranging of specific targets which has certain research significance.Key words。
基于双目视觉的快速定位与测距方法
基于双目视觉的快速定位与测距方法姚志生;许四祥;李天甲;王洋【摘要】In view of the problem of long matching time in binocular vision positioning and ranging process, a rapid method of binocular vision locating and ranging was proposed based on the background-subtraction method. Firstly, the original images captured by the binocular camera were processed by removing distortion and stereo correction.Then,the image frame and the background frame were subtracted,and morphological processing was carried out to obtain the image containing only the target object;Finally,the left and right images were matched, and the epipolar constraint law was employed to remove the mismatch to obtain the three-dimensional information of the object,and the positioning and ranging operation were completed.Experimental results show that the number of initial matching points is reduced by 96.7%,the number of effective matching points is reduced by 94.1%,and the matching time is reduced by 75.8%,compared with the traditional binocular vision ranging method.The method of this paper has practical significance to realize rapid positioning and ranging based on binocular vision.%针对双目视觉定位与测距过程中存在匹配时间较长的问题,提出一种基于背景差分法的双目视觉快速定位与测距方法.首先,对双目相机拍摄的原始图像进行去畸变和立体校正处理;然后,对图像与背景帧差并进行形态学处理,得到只包含目标物体的图像;最后,对左右图像进行匹配并运用极线约束法则去除误匹配得到物体的三维信息,完成定位与测距.经实验验证,与传统双目视觉定位测距方法相比,该方法初始匹配对数减少了96.8%,有效匹配对数减少了94.1%,匹配时间减少了75.8%,表明本文方法对于实现基于双目视觉的快速定位与测距具有实际意义.【期刊名称】《安徽工业大学学报(自然科学版)》【年(卷),期】2017(034)004【总页数】5页(P368-372)【关键词】双目视觉;相机标定;极线约束;背景差分法【作者】姚志生;许四祥;李天甲;王洋【作者单位】安徽工业大学机械工程学院,安徽马鞍山243032;安徽工业大学机械工程学院,安徽马鞍山243032;安徽工业大学机械工程学院,安徽马鞍山243032;安徽工业大学机械工程学院,安徽马鞍山243032【正文语种】中文【中图分类】TP391在钢铁冶金行业中,板坯连铸成型后需被分段切割送入辊道。
双目立体视觉测距原理
双目立体视觉测距原理双目立体视觉系统由两个相机组成,每个相机代表一个眼睛。
相机之间的距离通常被称为基线(baseline)。
在观察同一个目标时,两个相机会获取两个稍微不同的图像。
这是因为两个相机的位置不同,导致从不同角度观察到的目标图像有所偏移。
基于这个差异,我们可以使用视差原理来计算目标的距离。
视差是指两个眼睛在看同一个目标时,两个图像中相同物体之间的像素差异。
这个差异是由于目标在三维空间中的位置和相机的视角造成的。
我们可以通过比较两个图像的像素来计算出这个视差。
为了进行视差计算,我们首先需要进行图像配准。
这意味着将两个图像对齐,使得相同的物体在两个图像中位置相同。
这可以通过计算两个图像之间的特征点匹配来实现。
一旦图像对齐完成,我们就可以计算图像中像素之间的视差。
计算视差的常见方法是使用极线约束(Epipolar constraint)和匹配算法。
极线约束是指在双目视觉中,两个相机的对应像素点位于相应极线上。
换句话说,一个像素只能与另一个图像中相同视线上的像素匹配。
这个约束可以减少计算量并提高匹配的准确性。
匹配算法的选择取决于具体的应用需求和计算资源。
一些常见的匹配算法包括块匹配(block matching)、图像金字塔(image pyramid)和灰度共生矩阵(gray-level co-occurrence matrix)方法。
这些算法可以在图像中最佳匹配,并计算出视差值。
一旦获取了视差值,我们可以使用三角测量原理来计算目标的距离。
三角测量基于几何原理,通过知道基线长度和视差值,我们可以计算出目标的距离。
双目立体视觉测距原理有许多应用。
在工业领域,它可以用于机器人导航、三维重建和物体检测。
在医疗领域,双目视觉可以用于辅助手术和视觉康复。
在自动驾驶和无人机等领域,双目视觉可以帮助测量目标距离并进行障碍物检测。
总结起来,双目立体视觉测距原理利用两个相机观察同一目标,并计算出视差值来测量目标的距离。
基于双目视觉的目标定位与测距系统硬件平台
d e s i r e d e fe c t .
[ Ke y w o r d s l b i n o c u l a r v i s i o n ; t a r g e t r e c o g n i t i o n ; t h r e e — d i me n s i o n a l i n f o r m a t i o n ; p o s i t i o n i n g ; r a n g i n g ; d i s p a r i t y D O I : 1 O . 3 9 6 9 / j . i s s n . 1 0 0 0 — 3 4 2 8 . 2 0 1 3 . 0 7 . 0 4 8
目视 觉 的数 字视频 实 时处理 系统 硬件 平 台。使 用双 目摄 像头 采集 图像 ,并对 采集 信 息进行 三维 信息 计算 ,输 出 目标 定位 与测 距结
果 。实验 结果 表 明 ,该硬 件平 台可 以完 成图像 采集 及处理 功能 ,达 到预期 的实 验效 果 。
关键 词 :双 目视觉 ; 目标识 别 ;三维信 息 ;定位 ;测距 ;视差
第3 9卷 第 7 期
Vl 0 1 _ 3 9 No . 7
计
算
机
工
程
2 0 1 3 年 7月
J u l y 2 01 3
Co mp u t e r En g i n e e r i n g
・
人工智能及识别技术 ・
文章编号: 1 0 0 o —3 4 2 8 ( 2 o 1 3 ) 0 7 — _ o 2 1 4 — _ _ 0 5 文献标识码:A
中圈分类 号: T P 3 9 1
基 于双 目视 觉的 目标 定位 与 测距 系统硬 件 平 台
双目视觉测距技术研究及应用
双目视觉测距技术研究及应用随着科技的飞速发展,人类对于高精度的测距需求也越来越高。
其中,双目视觉测距技术无疑是一种重要的技术手段。
在这篇文章中,我们将探讨双目视觉测距技术的原理、优缺点、应用情况以及未来发展趋势。
1. 双目视觉测距技术原理双目视觉测距技术,顾名思义,就是通过获取物体在两个视点下的图像信息,利用视差(即两个视点下的图像差异)计算出物体的距离。
在具体实施中,需要将两个摄像头分别放置在一定距离内,在实时采集两个视点下的图像信号,并将其通过计算机进行处理,得到距离等目标参数。
2. 双目视觉测距技术优缺点与传统测距技术相比,双目视觉测距技术具有以下优点:(1)测距精度高。
双目视觉测距技术可以利用两个视点提供的图像信息,剔除光照、尺寸等因素的影响,从而实现更为准确的距离测量。
(2)测距范围广。
由于双目视觉测距技术不受光源、物体大小等因素的限制,它的测距范围比传统技术更为广泛。
(3)应用范围广泛。
双目视觉测距技术可以用于形态检测、机器人控制、医疗诊断等领域,具有很大的应用潜力。
然而,双目视觉测距技术也有一些缺点:(1)计算复杂度高。
由于需要进行多余的图像处理,双目视觉测距技术的计算复杂度比较高,需要使用高性能计算机。
(2)对环境光线敏感。
双目视觉测距技术对环境光线的变化十分敏感,需要进行相应的补偿,否则可能会影响测距精度。
3. 双目视觉测距技术应用情况目前,双目视觉测距技术已经被广泛应用于各个领域。
以下是其中一些典型应用:(1)机器人控制。
在机器人运动控制中,测量目标与机器人的距离十分重要。
双目视觉测距技术可以实现对机器人运动轨迹的高精度跟踪控制。
(2)三维成像。
在三维成像领域,双目视觉测距技术具有不可替代的地位。
通过对不同视角的图像信息进行融合处理,可以快速生成高精度的三维成像图。
(3)安防监控。
在安防监控领域,双目视觉测距技术可以快速准确地检测出目标物体距离,以及目标移动方向等相关信息,对于防范犯罪、提高治安水平具有重要的作用。
基于双目摄像头的测距系统的实现
第2期2021年1月No.2January,20210 引言利用摄像头进行测距已经不是新鲜的事情。
现阶段,关于摄像头测距有3种方式:第一种是在摄像头上安装测距设备包括激光测距仪、测距装置、超声波传感器等,用于测量目标物体与摄像头之间的距离。
这种测距方法有着成本高的特点,需要测试装备上都安装测距设备。
第二种是利用单目摄像头进行测距。
这需要建立到一定的参考数据,根据数据的对比,计算得出摄像头和目标物的位置。
如需要收集的数据包括目标物的尺寸数据、摄像头和目标物之间的夹角、相对位移、摄像头高度等。
该测距方法的实施,需要借助一些数据,因此方法有一定的测试场景限制。
第三种是借助双目摄像头完成测距。
该方法利用立体标定的方式,获取摄像头的参数矩阵,通过标定结果匹配图像,生成3D 点云,深度成像,最后得到摄像头和目标物之间的距离。
这种测距方式,有着复杂的计算方法,还会受到环境因素、立体标定的影响,结果也缺乏稳定性。
1 双目摄像头测距概述摄像头进行测距的方式,存在一系列的问题,那就是成本偏高,容易受到场景的限制,算法十分复杂,需要经过复杂的计算,而且计算结果还不太稳定。
文章针对摄像头测距存在的问题,以摄像头测距为基础,提出双目摄像头测距,实现对摄像头测距的优化改良。
该项技术,可以实现准确迅速地测距,利用目标物在摄像头中的投影,也可以迅速准确地获取距离数据,不需要提前进行摄像头标定,且没有复杂的算法,更不会占用系统的资源。
为了实现摄像头测距的优化,提出双目摄像头测距,其工作原理如下:(1)选择一个摄像头作为基准,选择另一个摄像头作为参照,这样可以获取两个图像,一个是基准摄像头收集到的基准图像,另一个是参考摄像头收集到的参考图像。
(2)将双目摄像头收集到的两种图像进行对比,结合两个图像上目标物呈现出来的特征数据,计算之后完成测距。
2 双目摄像头测距校准步骤利用双目摄像头进行测距,需要做好校准工作,一般而言,校准工作的步骤如下:首先,采集图像。
《2024年基于双目立体视觉的测距算法研究》范文
《基于双目立体视觉的测距算法研究》篇一一、引言在自动化技术、智能驾驶和机器人技术等应用领域中,精确的测距算法是关键技术之一。
双目立体视觉作为一种有效的视觉测距技术,在三维空间信息的获取中得到了广泛的应用。
本文旨在研究基于双目立体视觉的测距算法,为相关领域提供理论依据和技术支持。
二、双目立体视觉原理双目立体视觉原理基于人类双眼的视觉感知机制。
通过两个相机从不同角度获取同一场景的图像,利用图像处理技术对两幅图像进行匹配、计算视差,从而得到场景的三维信息。
双目立体视觉的测距原理主要依赖于视差计算和三角测量法。
三、双目立体视觉测距算法研究1. 算法流程基于双目立体视觉的测距算法主要包括图像获取、相机标定、图像预处理、特征提取、特征匹配和视差计算等步骤。
首先,通过两个相机获取同一场景的左右图像;然后,进行相机标定和图像预处理,包括去除噪声、灰度化等;接着,提取左右图像中的特征点;通过特征匹配算法,找到对应点对;最后,利用三角测量法计算视差,得到目标物体的深度信息。
2. 关键技术(1)相机标定:通过标定板获取相机的内外参数,为后续的图像处理提供基础。
(2)特征提取与匹配:提取左右图像中的特征点,并采用合适的匹配算法找到对应点对。
特征提取与匹配是双目立体视觉测距算法的关键步骤,直接影响测距精度。
(3)视差计算与三角测量法:根据对应点对计算视差,然后利用三角测量法得到目标物体的深度信息。
视差计算需要精确的匹配和算法优化,以提高测距精度。
四、算法优化与实验分析为了提高双目立体视觉测距算法的精度和鲁棒性,本文从以下几个方面进行了优化:1. 优化特征提取与匹配算法:采用更加稳定的特征提取与匹配算法,提高对应点对的准确性。
2. 引入机器学习与深度学习技术:利用机器学习和深度学习技术对双目立体视觉测距算法进行优化,提高算法的鲁棒性和适应性。
3. 实验分析:通过实验验证了本文提出的双目立体视觉测距算法的有效性和准确性。
实验结果表明,本文算法在各种场景下均能实现较高的测距精度。
双目摄像头测距原理
双目摄像头测距原理
双目摄像头测距是一种通过两个相机同时观察同一场景来确定物体距离的技术。
原理基于人眼的三角测量原理,即通过两只眼睛同时看到的物体在视网膜上的位置差异,从而判断物体的距离。
在双目摄像头测距系统中,两个摄像头分别放置在一定距离的位置上,同时向目标物体拍摄。
然后,通过图像处理算法对两幅图像进行分析和匹配,获取目标物体在两个图像上的位置。
接下来,通过计算目标物体在两个图像上的位置差异,可以得到物体与摄像头之间的视差(disparity)。
视差是物体在两个图像上的匹配点之间的水平像素差,它与物体到摄像头的距离成反比。
因此,通过测量视差,可以推算目标物体与摄像头的距离。
为了计算视差,需要首先对两幅图像进行校准,消除图像畸变和误差。
校准过程包括相机标定和立体标定,其中相机标定是为了确定摄像头的内部参数(如焦距、畸变等),立体标定是为了确定两个相机之间的相对位置和外部参数。
在测量目标物体距离时,还需要考虑环境光的影响。
一般情况下,可以利用红外光源来增强摄像头对目标物体的反射,并通过红外滤镜来屏蔽其他环境光。
总结起来,双目摄像头测距原理主要包括以下几个步骤:摄像头校准、立体标定、图像处理和视差计算。
通过这些步骤,可
以获得目标物体与摄像头之间的距离信息,为实现精确测距提供了一种有效的方法。
基于双目视觉的车辆检测跟踪与测距
第13卷㊀第4期Vol.13No.4㊀㊀智㊀能㊀计㊀算㊀机㊀与㊀应㊀用IntelligentComputerandApplications㊀㊀2023年4月㊀Apr.2023㊀㊀㊀㊀㊀㊀文章编号:2095-2163(2023)04-0147-05中图分类号:TP389.1文献标志码:A基于双目视觉的车辆检测跟踪与测距郭鹏宇(上海工程技术大学机械与汽车工程学院,上海201620)摘㊀要:由于道路上存在各种不安全因素,车辆检测跟踪并测距是自动驾驶技术的重要组成部分㊂本文将YOLOv4-tiny作为检测器使之加快模型检测速度且更适合在车辆嵌入式设备中使用㊂考虑到目标检测失败的情况,本文在历史缓冲区中存储以前的跟踪细节(唯一ID)和每个对象的相应标签,提出了一个基于中值的标签估计方案(MLP),使用存储在前一帧的历史标签的中值来预测当前帧中对象的检测标签,使得跟踪错误最小化,并用双目摄像头获取图像检测车辆距离㊂测试新网络结构后,检测精度(MeanAveragePrecision,mAP)为80.14%,检测速度较YOLOv4相比提高了184%,检测到的距离误差平均在0.5%左右㊂关键词:YOLOv4-tiny;目标跟踪;中值算法;双目测距Vehicledetection,trackingandrangingbasedonbinocularvisionGUOPengyu(SchoolofMechanicalandAutomotiveEngineering,ShanghaiUniversityofEngineeringScience,Shanghai201620,China)ʌAbstractɔDuetovariousunsafefactorsontheroad,vehicledetection,trackingandrangingaretheimportantpartofautomaticdrivingtechnology.Inthispaper,YOLOv4-tinyisusedasadetectortospeedupmodeldetectionandismoresuitableforvehicleembeddeddevices.Consideringthefailureofobjectdetection,thispaperstorestheprevioustrackingdetails(uniqueID)andthecorrespondinglabelofeachobjectinthehistorybuffer,andproposesamedium-basedlabelestimationscheme(MLP),whichusesthemedianvalueofthehistorylabelstoredinthepreviousframetopredictthedetectionlabeloftheobjectinthecurrentframe,sothattrackingerrorsareminimized.Theimagesobtainedbybinocularcameraareusedtodetectvehicledistance.Aftertestingthenewnetworkstructure,thedetectionaccuracy(MeanAveragePrecision,mAP)is80.14%,thedetectionspeedis184%higherthanthatofYOLOv4,andthedetecteddistanceerrorisabout0.5%onaverage.ʌKeywordsɔYOLOv4-tiny;targettracking;medianalgorithm;binoculardistancemeasurement作者简介:郭鹏宇(1995-),女,硕士研究生,主要研究方向:智能网联汽车㊂收稿日期:2022-05-240㊀引㊀言在自动驾驶辅助系统中,基于传感器,采用车辆检测㊁跟踪㊁测距等一系列计算机视觉算法进行环境感知,辅助系统就能得到车辆周围信息,以保证驾驶员安全驾驶㊂基于视觉的车辆检测及测距系统主要应用在道路交通场景下,用于辅助检测前方目标以及进行距离预警,其性能好坏主要依赖于采用的车辆检测算法㊂目前,在使用相机进行目标检测时,多采用传统的机器视觉检测方法㊂对于前方车辆目标,该方法首先根据车辆的局部特征,如阴影㊁边缘纹理㊁颜色分布等特征生成感兴趣区域;然后利用对称特征等整体特征对感兴趣区域进行验证㊂在从产生感兴趣区域到验证感兴趣区域的过程中,为了达到实时检测的要求,一般需要对图像进行灰度化,并对灰度化后的图像进行阴影分割和边缘分析㊂因此,对于相机获得的图像,传统的机器视觉的车辆检测方法通常找到感兴趣区域的车辆的特点和梯度直方图特征(HOG[1]),SIFT[2]特征或Haar-like[3]特征通常用于获得前面的假设检验区域车辆,即ROI区域;此后用这些特征训练SVM[4]或Adaboost[5]车辆检测分类器,计算车辆图像的特征值,并根据车辆特征值的大小与前方车辆进行判断,得到前车的假设测试区域验证,完成对前车的检测㊂而上述传统的机器视觉检测方法本质上是通过人工选择特征进行识别和分类㊂在复杂场景中,人工特征的数量会呈几何级数增长,这对前面车辆的识别率也有很大的影响㊂这种方法更适合在某种特定场景下的车辆识别,因为其数据规模并不大,泛化能力则较差,很难实现快速和准确的复杂应用场景的检测㊂近年来,随着卷积神经网络(CNN)的应用,出现了许多算法㊂一阶段方法包括SSD[6]㊁YOLO系列[7-8]㊁RetinaNet[9]㊂两阶段方法包括FastR-CNN[10]和FasterR-CNN[11]㊂最近提出的最先进的YOLO-v4[12]具有很高的检测精度和检测速度㊂目前,对于多目标车辆轨迹跟踪技术主要可分为两大类㊂一类是传统方法,如利用背景差分法㊁帧差法㊁光流法等方法提取运动目标,传统方法部署方便,资源消耗低,但受先验知识限制,跟踪稳定性差,准确性不高㊂另一类是基于卷积神经网络的㊁称为深度学习的方法,深度学习方法可以学习更多的目标特征,能在连续的视频帧中检测出目标对象㊂深度学习方法精度高,但其计算量较大,实时性不高,因此,基于视频跟踪的车辆检测算法仍需改进㊂研究可知,基于视觉相机的测距方法主要有单目测距和双目测距两种㊂这2种方法的共同特点是通过相机采集图像数据,随后从图像数据中得到距离信息㊂单目检测方法的优点是成本低,缺点是对检测精度的依赖过大㊂此外,从实用的角度来看,在汽车上安装单目相机时,由于汽车的颠簸,汽车的俯仰角经常发生变化,导致精度显著下降㊂双目测距的方法是通过计算2幅图像的视差直接测量距离㊂1㊀车辆检测与跟踪本文使用的目标检测算法是YOLOv4-tiny,其中YOLO表示YouOnlyLookOnce,由Bochkovskiy等学者开发㊂YOLOv4-tiny是YOLOv4的压缩版本,虽在平均精度方面受到了影响,但却可以在低计算能力下高效运行㊂与未压缩版本的4个YOLO头相比,YOLOv4-tiny只使用了2个YOLO头,并使用了29个预训练卷积层作为基础㊂YOLO各变量参数设置见表1,卷积层各变量参数设置见表2㊂㊀㊀上一代YOLO的非maxpool抑制(NMS)等遗留特性和一些新特性㊁包括加权剩余连接(WRC)㊁Mosaic数据增强在内有效提高了算法在模糊图像中识别类的能力,降低了识别类所需的处理能力㊂YOLOv4-tiny提供了较高的帧率,同时具有中间地带平均精度与常用模型并列㊂在本文中,使用YOLOv4-tiny算法作为车辆的检测器,并且使用DeepSORT[13]算法作为初始车辆跟踪器㊂表1㊀YOLO各变量参数设置Tab.1㊀YOLOparametersettingsYOLO变量参数Mask0,1,2anchors10,14,㊀23,27㊀37,58㊀81,82㊀135,169㊀344,319classes4num6jitter0.3scale_x_y1.05cls_normalizer1.0iou_lossciouignore_thresh0.7truth_thresh1random0Resize1.5nms_kindgreedynmsbeta_nms0.6表2㊀卷积层各变量参数设置Tab.2㊀Theconvolutionlayerparametersettings卷积层变量参数batch_normalize1filters64size3stride2pad1activationleaky㊀㊀图1显示了2个ID及其前3个标签㊂对于ID#137的车辆,本文方法预测的标签用加黑来标记㊂[1255,739,1421,856][960,719,1006,758]车辆I D 137[1255,739,1421,859][955,721,1006,758][1255,739,1421,856][952,722,1006,758]目标检测标签1图1㊀应用MLP后的历史缓冲区示例图Fig.1㊀AhistorybufferexampleafterapplyingMLP841智㊀能㊀计㊀算㊀机㊀与㊀应㊀用㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第13卷㊀㊀㊀本文使用历史缓冲区来调整和改进每个检测标签的视觉质量和在帧中的显示㊂如果有任何车辆检测标签缺失,那么本文的MLP为该车辆生产一个估计的检测标签㊂延时使用一系列的检测标签前存储在历史缓冲区来预测未检测到车辆的检测标签ID在给定的框架(见图1)㊂条件估计为特定车辆检测标签,标签ID应该至少在2个连续帧出现㊂为了预测缺失的检测标签,本文对当前帧t应用以下公式:Ñ=l(t-1)(i)-l(t-2)(i)(1)l(t)(i)=l(t-1)(i)+Ñ(2)㊀㊀这里,lxmin,ymin,xmax,ymax()表示每个车辆ID基于调整边界框标签的中值,Ñ表示边界框位置的变化从时间戳(t-2)到(t-1);i表示每辆车唯一的ID㊂2㊀双目测距双目视差示意如图2所示㊂由图2可知,2个摄像头的中心距是B,两个摄像头观察同一点P,P1的坐标为(X1,Y1),P2的坐标为(X2,Y2),由于2台相机始终是平行的,高度相同,所以在左右2张图像中P点的Y坐标是相同的,在X方向上存在视差㊂因此,可以通过标定相机内外参数来确定图像坐标与世界坐标之间的关系㊂双目视差原理如图3所示㊂PZ 2X 2P 2Z 1P 1O 2Y 2Y 1BC 2X 1O 1C 1x 1y 1y 2x 2图2㊀双目视差示意图Fig.2㊀SchematicdiagramofbinocularparallaxdfB aP RC RA RbP LX LX RPC LA L图3㊀双目视差原理图Fig.3㊀Principleofbinocularparallax㊀㊀图3中,CL和CR是2个摄像头的光学中心,摄像头之间的距离是b,相机的焦距为f,P点在左右图像的投影点为PlXl,Yl(),PrXr,Yr(),AL,PL=XL,AR,PR=XR,PR,B=a,从三角形相似关系可知:d-fd=aa+xRd-fd=b-xL+xR+ab+xR+a(3)㊀㊀由式(3)可知:a=bxRxL-xR-xR(4)㊀㊀由此,空间中P点到相机的距离为:d=fa+xRxR=bfxL-xR(5)㊀㊀P在相机坐标系中的三维坐标可以由几何关系得到:X=bxLxL-xRY=byxL-xRZ=bfᶄxL-xMìîíïïïïïïïï(6)㊀㊀对于车辆的测距,本文取检测到的边界框内每辆车的中心来表示被检测物体到双目相机中心的距离㊂3㊀实验结果与分析将YOLOv4-tiny与其他常用的目标检测算法进行比较,将其mAP与FPS进行比较,得到表3中的结果㊂本文提出的车辆检测与跟踪方法使用了TensorFlow库和基于YOLOv4-tiny模型的DeepSORT算法㊂经综合比较,使用YOLOv4-tiny的精度和检测速度是可以接受的,精度比YOLOv3-tiny高,速度比YOLOv4的方法更快㊂YOLOv4-tiny模型检测车辆效果如图4所示㊂表3㊀各模型帧率和mAP对比Tab.3㊀FramerateandmAPcomparison模型mAP/%帧率(FPS)YOLOv485.0814.12YOLOv4-tiny80.1440.11YOLOv383.3216.99YOLOv3-tiny69.0352.77941第4期郭鹏宇:基于双目视觉的车辆检测跟踪与测距图4㊀YOLOv4-tiny模型检测车辆效果Fig.4㊀CarsvideodetectionusingYOLOv4-tinymodel㊀㊀使用本文方法前后汽车的标签变化曲线如图5所示㊂对于ID#39的车辆,图5(a)是使用方法前,图5(b)是使用本文方法后,相同的汽车标签变得更加平滑㊂X (b o u n d i n g b o x 的中心)100200300400500600700800730720710700690680670Y (b o u n d i n g b o x 的中心)(a)使用本文方法前100200300400500600700800730720710700690680670X (b o u n d i n g b o x 的中心)Y (b o u n d i n g b o x 的中心)(b)使用本文方法后图5㊀使用本文方法前后汽车的标签变化Fig.5㊀Thelabelchangesbeforeandafterusingthemethodinthispaper㊀㊀在目标跟踪时,从历史缓冲区中预测缺失标签的方法往往会产生不好的结果,因为对象检测器的可视化结果经常显示不稳定和闪烁的边框标签㊂在应用本文的基于中值的算法后,可以得到高度稳定的标签㊂因此,本文方法提高了目标检测器的视觉性能,并为目标检测器和跟踪器提供了对缺失标签的更好估计㊂利用双目相机取检测到的边界框内每辆车的中心来表示被检测物体到双目相机中心的距离㊂仿真测试结果见表4㊂从距离测试的结果来看,测试精度相对较高,基本保持在0.5% 0.6%之间㊂表4㊀测量结果分析Tab.4㊀Themeasuredresultsanalysis实验组数测量距离/cm实际距离/cm误差/%11567.001559.110.503521655.001646.140.535331738.001729.160.508641893.001883.170.519351983.001971.200.595162236.002223.220.571672489.002475.260.55204㊀结束语本文介绍了一种用于自动驾驶的实时检测跟踪与测距系统㊂通过本文提出的实时同步方法,该系统方便了车辆实时同步检测;利用双目摄像头,YOLOv4-tiny和DeepSORT算法对车辆进行检测和跟踪,并提出中值标签预测方法优化跟踪效果,同时实现了对前方车辆的精确测距㊂整个系统在检测和测距方面取得了较高的精度和实时性㊂对于自动驾驶的应用,该系统可以结合许多智能技术,如目标预警㊁自动避障等㊂与此同时,该系统还有很大的改进空间㊂在检测方面,通过优化算法提高检测性能,通过训练更多类型的物体,如行人㊁非机动车等,为自动驾驶提供更多的道路信息㊂在这个系统中,测距是指从双目相机的中心到物体的距离㊂在实际情况下,车辆的具体位置到物体的距离可以根据相机的安装位置和车辆的实际长度来计算㊂通过优化双目测距算法,可以提高测距精度㊂参考文献[1]TAIGMANY,YANGMing,RANZATOMA,etal.DeepFace:Closingthegaptohuman-levelperformanceinfaceverification[C]//2014IEEEConferenceonComputerVisionandPatternRecognition.Columbus,OH,USA:IEEE,2014:1701-1708.[2]MAXiaoxu,GRIMSONWEL.Grimson.Edge-basedrichrepresentationforvehicleclassification[C]//TenthIEEEInternationalConferenceonComputerVision.Beijing:IEEE,2005:1185-1192.[3]XUQing,GAOFeng,XUGuoyan.Analgorithmforfront-vehicledetectionbasedonHaar-likefeature[J].AutomotiveEngineering,2013,35(4):381-384.(下转第157页)051智㊀能㊀计㊀算㊀机㊀与㊀应㊀用㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀㊀第13卷㊀参考文献[1]SHIJianping,TAOXin,XULi,etal.Breakamesroomillusion:depthfromgeneralsingleimages[J].ACMTransactionsonGraphics(TOG),2015,34(6):1-11.[2]YANGDong,QINShiyin,Restorationofdegradedimagewithpartialblurredregionsbasedonblurdetectionandclassification[C]//IEEEInternationalConferenceonMechatronicsandAutomation.Beijing,China:IEEE,2015:2414–2419.[3]ABBATEA,ARENAR,ABOUZAKIN,etal.Heartfailurewithpreservedejectionfraction:refocusingondiastole[J].InternationalJournalofCardiology,2015,179:430-440.[4]LYUW,LUWei,MAMing.No-referencequalitymetricforcontrast-distortedimagebasedongradientdomainandHSVspace[J].JournalofVisualCommunicationandImageRepresentation,2020,69:102797.[5]YIXin,ERAMIANM.LBP-basedsegmentationofdefocusblur[J].IEEETransactionsonImageProcessing,2016,25(4):1626-1638.[6]GOLESTANEHSA,KARAMLJ.Spatially-varyingblurdetectionbasedonmultiscalefusedandsortedtransformcoefficientsofgradientmagnitudes[C]//IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Honolulu,Hawaii:IEEE,2017:596-605.[7]SUBolan,LUShijian,TANCL.Blurredimageregiondetectionandclassification[C]//Proceedingsofthe19thACMinternationalconferenceonMultimedia.ScottsdaleArizona,USA:ACM,2011:1397-1400.[8]SHIJianping,XULi,JIAJiaya.Discriminativeblurdetectionfeatures[C]//ProceedingsoftheIEEEConferenceonComputerVisionandPatternRecognition.Columbus,USA:IEEE,2014:2965-2972.[9]TANGChang,WUJin,HOUYonghong,etal.Aspectralandspatialapproachofcoarse-to-fineblurredimageregiondetection[J].IEEESignalProcessingLetters,2016,23(11):1652-1656.[10]王雪玮.基于特征学习的模糊图像质量评价与检测分割研究[D].合肥:中国科学技术大学,2020.[11]CHENQifeng,LIDingzeyu,TANGCK,etal.KNNMatting[J].IEEETransactionsonPatternAnalysis&MachineIntelligence,2013,35(9):2175-2188.[12]OJALAT,PIETIKAINENM,MAENPAAT.Multiresolutiongray-scaleandrotationinvarianttextureclassificationwithlocalbinarypatterns[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2002,24(7):971-987.[13]ACHANTAR,SHAJIA,SMITHK,etal.SLICsuperpixelscomparedtostate-of-the-artsuperpixelmethods[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2012,34(11):2274-2282.[14]WANGJingdong,JIANGHuaizu,YUANZejian,etal.Salientobjectdetection:Adiscriminativeregionalfeatureintegrationapproach[J].InternationalJournalofComputerVision,2017,123:251-268.[15]ZHAOMinghua,LIDan,SHIZhenghao,etal.BlurfeatureextractionplusautomaticKNNmatting:Anoveltwostageblurregiondetectionmethodforlocalmotionblurredimages[J].IEEEAccess,2019,7:181142-181151.[16]OTSUN.Athresholdselectionmethodfromgray-levelhistograms[J].IEEETransactionsonSystems,Man,andCybernetics,1979,9(1):62-66.[17]GASTALESL,OLIVEIRAMM.Domaintransformforedge-awareimageandvideoprocessing[J].Eurographics,2010,29(2):753-762.(上接第150页)[4]KAZEMIFM,SAMADIS,POORREZAHR,etal.VehiclerecognitionusingcurvelettransformandSVM[C]//Proc.ofthe4thInternationalConferenceonInformationTechnology.LasVegas,NV,USA:IEEE,2007:516-521.[5]FREUNDY,SCHAPIRERE.Adecision-theoreticgeneralizationofon-linelearningandanapplicationtoboosting[J].JournalofComputerandSystemSciences,1997,55:119-139.[6]LIUWei,ERHAND,SZEGEDYC,etal.SSD:Singleshotmultiboxdetector[C]//EuropeonConferenceonComputerVision(ECCV).Switzerland:Springer,2016:21-37.[7]REDMONJ,DIVVALAS,GIRSHICKR,etal.Youonlylookonce:Unified,real-timeobjectdetection[C]//IEEEConferenceonComputerVisionandPatternRecognition.LasVegas,NV,USA:IEEE,2016:779-788.[8]REDMONJ,FARHADIA.YOLOv3:Anincrementalimprovement[J].arXivpreprintarXiv:1804.02767,2018.[9]LINTY,GOYALP,GIRSHICKR,etal.Focallossfordenseobjectdetection[C]//IEEEInternationalConferenceonComputerVision(ICCV).Venice,Italy:IEEE,2017:2980-2988.[10]GIRSHICKR.FastR-CNN[C]//IEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chile:IEEE,2015:1440-1448.[11]RENShaoqing,HEKaiming,GIRSHICKR,etal.FasterR-CNN:Towardsrealtimeobjectdetectionwithregionproposalnetworks[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2016,39(6):1137-1149.[12]BOCHKOVSKIYA,WANGCY,LIAOHYM.YOLOv4:Optimalspeedandaccuracyofobjectdetection[J].arXivpreprintarXiv:2004.10934,2020.[13]AZHARMIH,ZAMANFHK,TAHIRNM,etal.PeopletrackingsystemusingDeepSORT[C]//10thIEEEInternationalConferenceonControlSystem,ComputingandEngineering(ICCSCE).IEEE,2020:137-141.751第4期李浩伟,等:基于LBP特征与图像显著性的散焦模糊区域检测。
《基于双目立体视觉的测距算法研究》范文
《基于双目立体视觉的测距算法研究》篇一一、引言在现今的自动驾驶、机器人技术、以及3D计算机视觉领域,双目立体视觉测距算法以其准确度高、鲁棒性强的特点得到了广泛的应用。
本文旨在研究基于双目立体视觉的测距算法,深入探讨其原理、应用及其优缺点,并通过实验分析验证其有效性。
二、双目立体视觉原理双目立体视觉是通过模拟人类双眼的视觉过程,利用两个相机从不同角度获取同一场景的图像,再通过图像处理技术恢复出场景的三维信息。
其基本原理包括图像获取、图像校正、特征提取、立体匹配和三维重建等步骤。
三、测距算法研究基于双目立体视觉的测距算法主要分为以下几个步骤:1. 图像获取与预处理:首先,通过两个相机获取同一场景的左右图像,然后进行预处理,包括去噪、灰度化等操作,以便后续处理。
2. 特征提取与匹配:在预处理后的图像中提取特征点,如SIFT、SURF等算法。
然后,通过立体匹配算法找到对应点,如基于区域的匹配算法、基于特征的匹配算法等。
3. 计算视差:通过立体匹配得到的对应点计算视差,即同一物体在不同相机图像中的位置差异。
视差反映了物体在空间中的深度信息。
4. 深度信息恢复与测距:根据视差和双目相机的基线距离计算深度信息,从而得到物体的三维坐标。
再结合相关算法计算得到物体与相机的距离。
四、算法优化与改进为了提高测距精度和鲁棒性,可以采取以下措施对算法进行优化和改进:1. 优化特征提取与匹配算法:采用更先进的特征提取与匹配算法,如深度学习算法等,提高匹配精度和速度。
2. 引入约束条件:利用先验知识或已知信息引入约束条件,如顺序一致性约束、极线约束等,以减少错误匹配的概率。
3. 深度学习算法的融合:将深度学习算法与双目立体视觉测距算法相结合,通过大量数据训练得到更准确的模型。
4. 多重校正技术:在图像获取阶段引入多重校正技术,以消除相机之间的几何畸变和光畸变等影响测距精度的因素。
五、实验分析本文通过实验验证了基于双目立体视觉的测距算法的有效性。
基于双目视觉的目标定位与测距系统硬件平台
基于双目视觉的目标定位与测距系统硬件平台王怡萱;张俊梅;阚江明【摘要】Autonomous target recognition and positioning issues are the base of intelligent forestry robots.This paper chooses the trunk in forestry environment as the goal,puts forward a digital video real-time processing systems hardware platform based on the binocular vision.The binocular cameras acquire the images.It calculates the three-dimensional information,then outputs the targeting and ranging results.Experimental results show that the hardware platform can complete the images acquirement and processing,and achieves the desired effect.%自主目标识别与定位问题是智能化林业机器人工作的重要基础.以林业环境中树干识别及定位为目标,设计一种基于双目视觉的数字视频实时处理系统硬件平台.使用双目摄像头采集图像,并对采集信息进行三维信息计算,输出目标定位与测距结果.实验结果表明,该硬件平台可以完成图像采集及处理功能,达到预期的实验效果.【期刊名称】《计算机工程》【年(卷),期】2013(039)007【总页数】6页(P214-218,223)【关键词】双目视觉;目标识别;三维信息;定位;测距;视差【作者】王怡萱;张俊梅;阚江明【作者单位】北京林业大学工学院,北京100083;北京林业大学工学院,北京100083;北京林业大学工学院,北京100083【正文语种】中文【中图分类】TP3911 概述随着人工智能、计算机、单片机、传感器、信息等技术的进一步发展,人们对智能机器人性能的要求也越来越高。
双目视觉测距国内外研究综述
双目视觉测距国内外研究综述一、引言双目视觉测距是计算机视觉领域的重要研究方向之一,它通过模拟人类双眼来获取场景的深度信息。
双目视觉测距技术在机器人导航、三维重构、智能交通等领域具有广泛的应用前景。
本文将对国内外双目视觉测距的研究进行综述,以期全面、详细、完整地探讨该主题。
二、双目视觉测距原理双目视觉测距原理基于视差的概念,即两个摄像机观察同一场景时,由于视点的差异,同一物体在两个图像中的位置会有所偏移。
通过计算这个偏移量,可以推导出物体到摄像机的距离。
2.1 视差计算方法视差计算方法可以分为基于特征点的方法和基于区域的方法。
2.1.1 基于特征点的方法基于特征点的方法通过提取图像中的特征点,如角点、边缘等,计算特征点在两个图像中的视差,从而得到深度信息。
常用的算法有SIFT、SURF、ORB等。
2.1.2 基于区域的方法基于区域的方法将图像划分为若干个区域,然后计算这些区域的视差。
常见的算法有块匹配、全局优化等。
2.2 双目标定双目标定是双目视觉测距的前提,它的目标是确定两个摄像机之间的几何关系。
常用的双目标定方法有张正友标定法、Tsai标定法等。
三、国内双目视觉测距研究国内在双目视觉测距方面的研究取得了很多进展,以下是其中的几个重要研究成果。
3.1 XXX方法XXX方法是一种基于特征点的双目视觉测距方法,它通过提取图像中的关键点,并利用这些关键点的视差信息计算深度。
该方法在实验中取得了较好的测距精度。
3.2 XXX方法XXX方法是一种基于区域的双目视觉测距方法,它将图像划分为多个区域,并利用区域间的视差信息计算深度。
该方法在复杂场景中表现出较好的鲁棒性。
3.3 XXX方法XXX方法是一种结合了特征点和区域的双目视觉测距方法,它通过提取图像中的关键点和区域,综合利用它们的视差信息计算深度。
该方法在复杂光照条件下具有较好的稳定性。
四、国外双目视觉测距研究国外在双目视觉测距方面也有很多杰出的研究成果,以下是其中的几个代表性研究。
双目测距算法
双目测距算法
双目测距算法是一种利用双目相机系统来测量目标距离的方法。
其基本原理是利用目标点在左右两幅视图上成像的横向坐标直接存在的差异(即视差)与目标点到成像平面的距离Z存在着反比例的关系。
在双目视觉系统中,两个相机被放置在同一个平面上,并且它们之间的距离是已知的。
通过计算同一目标点在两个相机中的视差,可以确定目标点在三维空间中的位置。
具体来说,双目视觉系统中的两个相机通过镜头将目标点投影到各自的成像平面上。
由于两个相机之间的距离是已知的,因此可以通过计算同一目标点在两个相机中的视差来计算目标点到成像平面的距离Z。
在实际应用中,双目视觉系统需要经过标定和校准,以确定相机的内部参数(如焦距、光心位置等)和外部参数(如相机的旋转和平移矩阵)。
这些参数可以帮助准确地计算出目标点的三维位置。
需要注意的是,双目视觉系统中的视差计算需要考虑到相机的畸变、光照条件、目标点的特征等因素。
因此,在实际应用中,需要根据具体情况进行适当的优化和调整。
以上是双目测距算法的基本原理和步骤。
基于双目视觉的水上目标测距与识别算法研究
基于双目视觉的水上目标测距与识别算法研究目前,许多国家都在对水上装备智能化、无人化技术进行研究,研究的重点方向之一就是水上装备的环境感知技术。
双目立体视觉技术作为重要的环境感知技术,受到研究人员的重视。
本文对双目测距中的关键技术和水上目标识别算法进行了深入研究,通过实验验证了双目测距算法和目标识别算法的可行性以及可靠性。
论文主要完成的工作如下:第一,对双目测距中匹配代价获取的关键技术进行优化改进,针对传统Census变换对中心像素过于依赖,噪声影响下匹配效果差的问题提出了一种改进的Census变换,利用改进的Census变换进行立体匹配,提高了立体匹配算法对噪声的鲁棒性和执行效率。
第二,对双目测距过程中采用的局部立体匹配算法流程进行调整优化,结合水上目标测距与识别这一最终目的简化传统局部立体匹配的流程,首先采用自适应设定滞后阈值的Canny算子以及Snake模型对水上目标的轮廓进行提取,然后在轮廓区域内采用自适应窗口进行匹配代价聚合,避免在深度不连续区域产生误匹配。
最后对视差进行优化,得到目标视差,进一步计算出目标的距离信息。
采用优化改进的算法进行测距实验,测距精度达到了无人艇避障以及视觉侦察的要求。
第三,结合水上目标的特点进行目标的识别分类。
由于像水上船舶这类目标较水上岛屿等目标具有明显的形状差异。
因此对水上目标的形状特征、Hu矩特征进行提取,将提取出的目标特征作为分类支持向量机的输入,对水上目标进行舰艇目标的识别和分类。
实验验证时选择高斯径向基核函数的支持向量机进行样本的训练和测试实验,取得了很好的分类识别效果。
基于双目视觉的运动目标检测系统
Kewod :betd tcin io ua io ,saeiv r n auera som( I T) y rso jc eet ,bn c l vs n c l n a i t e tr rn fr SF o r i a f
人类 感知外 部 世界 主要 是通 过视 觉 、 觉 、 触 听觉
vso - a e o in d tcin s s e i r s n e . Th y tm o ss so a a a q iiin a d iin b s d m to ee t y tm s p e e td o e s se c n it fd t c u st n o so a emo ue t rg d l ,m o i g t r e e e t n mo u e h o r s o dn on ac ig mo u ea d vn a g td tc i d l ,t e c re p n ig p itm thn d l n o r n ig mo u e I o in d tcin mo u e f r d a—h n e ie a t r e p ciey t e a gn d l. n m t ee to d l , o u l a n lvd o c p u e rs e tv l , h o c b c g o n i e e c t o s u e o a g te ta t n Ea h o h u l h n e r me a k r u d df r n e me h d wa s d fr t r e x r c i . f o c ft e d a- a n lfa s c wa o r ema c e isl sc a s t h d frty,t e ie mac ig u ig S FT l o ih t id t e mac on s h n f thn sn I n ag rt m o f h th p i t. n Fial nl y,u i g t em ac i gp i t ac lt st eds a c .Th x e i e t h w h t h ss se sn h t hn on lu a e h itn e c ee p rm n ss o t a i y tm t c n b e y e fcie i x r cig m o ig t r e n e s rn itn e e p cal n d sa c a e v r fe tv n e ta tn vn a g ta d m a u i g d sa c , s e il i itn e y m e s rn fo sr ce ag t. a u ig o b tu t d tr es
双目相机测距原理
双目相机测距原理
双目相机测距技术是一项比传统的有源雷达、激光测距仪等测距技术更加精确、无损、安全的测距技术。
它利用双目视觉和三角测量原理,将双摄像头采集到的影像信号分析处理,依据一定的测量公式计算出特定目标物体的空间位置和距离。
双目相机测距技术是一种采用双摄像头,利用每台摄像头拍摄到目标物体影像的畸变
差来获得它与摄像头的垂直距离,从而实现双目视觉测距的技术,其原理主要是利用双目
视觉,分别由两个摄像头向目标物体拍摄,并根据本质科学的三角测量及透视畸变准则,
通过拍摄的两个影像之间的差异特征,从而计算出目标物体的深度、范围等信息从而获得
该物体与双目测距系统的距离。
双目相机测距技术产生的影像数据需要通过相机矫正模型进行纠偏,以准确提取出影
像坐标系下的特征点信息,进而通过三角测量计算出特征点在世界坐标系下的位置范围,
利用根据双目相机设置之间距离,凭借此已知量计算出特征点在双目相机原点之间的垂直
距离。
具体而言,双目相机获取的影像信息有反射光学特性,将每个特征点的投影以光学
坐标表示,然后根据双目立体视觉和三角测量原理,将投影点量化为两个参考坐标原点之
间的空间距离,从而计算出两个参考原点之间的实际距离。
双目相机测距技术具有范围篇幅较大,分辨率高,准确性高,灵敏度好,信号传输稳
定性强的优势,并且不会受到气体介质阻碍影响,适用性广,可以实现对有形无形、大小
反差巨大的物体的测距,能够更准确的描绘物体的空间位置和距离,为物体的智能感知提
供有力的支持。
双目测距原理
双目测距原理
双目测距原理是一种通过两个相邻安装的摄像头来实现三维测距的方法。
其基本原理是通过计算同一目标在两个摄像头中的位置差异来推算目标与摄像头的距离。
在双目测距系统中,首先需要进行视差计算。
视差是指同一目标在两个摄像头中的像素偏移量,可以通过在图像上找到对应的特征点来计算。
特征点可以是目标的边缘、角点等等。
接下来,需要进行坐标转换。
由于两个摄像头之间存在一定的基线距离,可以根据几何关系将视差转换为目标与摄像头之间的实际距离。
通过已知的摄像头参数和基线距离,可以建立起像素坐标和实际距离之间的映射关系。
最后,通过解算得到的像素坐标和实际距离之间的映射关系,可以对任意目标在摄像头中的距离进行测量。
这个过程可以通过计算机视觉算法和数学模型来完成,常见的方法有视差图法、三角测距法等等。
总之,双目测距原理基于对同一目标在两个相邻摄像头中的位置差异进行分析和计算,从而实现对目标与摄像头之间距离的测量。
这种方法在机器人导航、交通监控等领域有着广泛的应用。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
149
汽车实用技术
2017 年第 2 期
的影响,但是其监测范围更大,能够更为全面的收集道路信 息,并且设备成本较低,普及率也更高。
基于双目立体视觉的环境感知是今后机器视觉环境感知 的一个重要发展方向,现如今其广泛应用在航空航天、工业 检测、物体识别等领域。双目立体视觉技术即模拟人类双眼 处理景物的方式,运用摄像机从不同位置对同一目标物体取 像,实现对景物立体信息的感知[1]。本文基于 Zhang 的相机 相机标定方法,在双目平行视觉基础上,鉴于双目标定结果 很容易受到外部因素的影响[2-4],控制特征点数量、标定图片 数量和棋盘格尺寸三个影响因子,之后用 MATLAB calibration toolbox 进行标定试验,并且处理标定结果以求出目标 的深度信息[5-6]。
引言
无人驾驶技术随着环境感知技术的发展而发展,对周围 环境信息的正确感知是无人驾驶汽车安全行驶的前提。目前 环境感知技术主要有五种:雷达感知、红外线感知、超声波 感知、融合感知、机器视觉感知。雷达感知不需复杂的设计
作者简介:黄玉强,硕士,就读于武汉理工大学,研究方向为双目 立体视觉。
与计算,系统的使用不受天气、光线等因素干扰,但却受相 近的不同雷达间的电磁波的干扰;红外线感知环境适应性好, 反应速度快,探测范围更广,但是探测视角小,测量精度也 有待提高;超声波感知能够快速简单的处理数据,且超声波 传感器也比较耐脏污,但是其精度较低,成本也较高;融合 感知是基于单一传感器难以全面描述路况环境,而综合利用 多个传感器来正确感知车辆周围的路况环境,但缺点是数据 处理较为复杂并且设备成本高;机器视觉感知容易受到环境
10.16638/ki.1671-7988.2017.02.051
基于双目视觉的目标测距
黄玉强,叶磊
(武汉理工大学现代汽车零部件技术湖北省重点实验室,湖北 武汉 430070)
摘 要:随着计算机技术的发展,无人驾驶技术的研究也受到了越来越多的关注,环境感知技术在其中占据着重要 的地位,双目立体视觉技术以其特有的优势成为了环境感知技术中的主要内容。在研究了双目立体视觉标定、校正、 匹配等技术的基础上,文章设计了基于 MATLAB 与 OpenCV 相结合的双目立体视觉测距系统。利用 MATLAB calibration toolbox 进行标定试验,并且将标定结果导入至 OpenCV 中进行后续校正、匹配、距离恢复工作以求出目 标的三维深度信息。实验表明,该系统在一定的距离范围内能够达到高精度要求。 关键词:双目立体视觉;标定;校正;匹配;测距 中图分类号:TP39/TN911.73 文献标识码:A 文章编号:1671-7988 (2017)02-148-04
Range-measuring of Target based on Binocular stereo vision
Huang Yuqiang, Ye Lei (Hubei Key Laboratory of Advanced Technology of Automotive Parts, Wuhaogy, Hubei Wuhan 430070)
Abstract: With the development of computer technology, the research of unmanned technology has attached more and more attention,and the technology of environment perception plays an important role in it. Binocular stereo vision technology comes to the major content of unmanned technology,for which possessing the specific advantages.Grounding in the studies of the technology of Binocular stereo vision system’s calibration,stereo rectification ,stereo matching and so on,This paper designs distance measurement system based on a combination of MATLAB and ing MATLAB calibration toolbox to conduct the experiment of calibration, then importing the results calibrated to the OpenCV and conducting the following task of rectification,matching, the recovery of distance to get the three-dimensional depth information of target.The experiment show that the measurement system can meet the demand of high-precision within a destined range. Key words: Binocular stereo vision; Calibration; Rectification; Matching; Range-measuring CLC NO.: TP39/TN911.73 Document Code: A Article ID: 1671-7988 (2017)02-148-04
而这种投影关系又可以用摄像机模型中的四个坐标系之间的
转换关系来表述,这四个坐标系分别为图像坐标系、成像平 面坐标系、摄像机坐标系和世界坐标系[7-9]。如下图图 2 所示。