BumbleBee2 双目视觉系统技术说明
双目视觉简介
双目立体视觉,在百度百科里的解释是这样解释的:双目立体视觉(Bin ocular Stereo Visio n )是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。
我相信未来的世界一定是三维感知的世界,毕竟二维世界很多情况下不能满足要求的。
一视差Dis parity 与深度图那么提到双目视觉就不得不提视差图:双目立体视觉融合两只眼睛获得的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,这个差别,我们称作视差(Disparity) 图像。
对于视差的理解自己可以体验一下:将手指头放在离眼睛不同距离的位置,并轮换睁、闭左右眼,可以发现手指在不同距离的位置,视觉差也不同,且距离越近,视差越大。
那么提到视差图,就有深度图,深度图像也叫距离影像,是指将从图像采集器到场景中各点的距离(深度)值作为像素值的图像。
获取方法有:激光雷达深度成像法、计算机立体视觉成像、坐标测量机法、莫尔条纹法、结构光法。
那么这里引申一下深度图与点云的区别,点云:当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。
若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云。
深度图像经过坐标转换可以计算为点云数据;有规则及必要信息的点云数据可以反算为深度图像。
两者在一定条件下是可以相互转化的,之前的博客里,有使用PCL库实现过点云提取深度图,当然给出相机参数也是可以由深度图转为点云的。
截图一个深度图:h 也JrruK"■arru举所以深度与视差的关系如下比如绝对差值法D=| L-R|式中,L、R和D分别代表左视图、右视图和对应的绝对差值图的亮度值。
绝对差值图并不是严格意义上的视差图,但是它的计算方法最为简单,速度快,它给出的结果可以作为参考。
双目立体视觉技术的实现
双目立体视觉技术的实现双目立体视觉技术是指利用两个摄像机模拟人眼双目视觉,从而实现对物体的立体感知和深度信息的提取。
它已经广泛应用于计算机视觉、机器人视觉、虚拟现实、医学影像等领域。
本文将对双目立体视觉技术的实现进行详细介绍。
一、双目视觉原理人类双目视觉的原理是指两只眼睛在不同的位置观察同一物体,从而产生两个稍微不同的图像。
人脑通过类似于计算机中的算法,对两个图像进行计算,从而提取出立体信息,进而对物体进行深度和空间感知。
二、双目立体视觉技术的实现过程1.摄像机的标定由于摄像机内外参数不同,因此在使用双目立体视觉技术时需要先进行摄像机标定。
摄像机标定的过程包括对摄像机的内部参数和外部参数进行测量和计算。
内部参数包括焦距、主点以及径向和切向畸变等,外部参数包括相机的位置和朝向。
通过标定,可以得到摄像机的参数,进而进行后续的处理。
2.图像匹配图像匹配是双目立体视觉技术中最重要的步骤之一,也是最具挑战性的部分。
图像匹配的目的是找到两张图像中对应的像素点。
常用的图像匹配算法包括基于区域、基于特征和基于深度等。
3.深度计算深度计算是指根据匹配到的像素点,计算出物体的距离,即深度。
常用的深度计算方法包括三角测量法和基于视差的深度计算法。
三角测量法是指根据两个图像中对应像素点的位置关系,通过三角形相似原理计算出物体的距离。
基于视差的深度计算法是指通过计算两幅图像中对应点之间的视差(即两个像素在图像上的水平或垂直距离),从而得出物体到相机的距离。
三、双目立体视觉技术的应用1.计算机视觉双目立体视觉技术在计算机视觉领域中已经被广泛应用。
例如,在物体识别、位姿估计以及场景重建等方面,双目立体视觉技术都有重要的应用。
通过双目视觉,计算机可以更加准确地识别图像中的物体,进而进行自动化的控制和处理。
2.机器人视觉机器人视觉是指将双目视觉技术应用于机器人的感知和控制。
例如,在自主导航、抓取和操纵等方面,机器人需要通过视觉来获取场景信息和深度信息,从而实现自主决策和控制。
基于双目视觉的工程车辆定位与行驶速度检测
基于双目视觉的工程车辆定位与行驶速度检测同志学;赵涛;贺利乐;王消为【摘要】针对工程车辆行驶速度低、滑转率高的特点,提出了一种基于双目序列图像的检测方法,以便快速检测工程车辆的相对位置与实际行驶速度.将双目摄像机安装在车辆上,连续采集周围环境的序列图像;利用SURF(speeded up robust features)特征对已采集到的各帧双目图像进行立体匹配,计算出环境特征点到摄像机坐标系原点的距离,从而实现车辆的相对定位;再对相邻两帧图像进行特征跟踪匹配,根据不同景深将匹配特征点对划分为远距点对和近距点对,分别利用远距点对和近距点对估算车辆运动过程中坐标系的旋转矩阵和平移矢量,并利用Levenberg-Marquardt法进行优化求解;最后根据优化后的旋转矩阵和平移矢量计算出车辆的行驶速度.户外模拟试验结果表明了方法的有效性和可行性.%According to the characteristics of low speed and high slip ratio of construction vehi-cles,a method was proposed based on binocular sequence images in order to quickly detect the relative positions and actual speeds of the vehicles.The vehicle-borne binocular vision sensors were used to collect the image sequences of the surrounding environments continuously.And the distances from the environment feature points to the origins of the camera coordinate systems were calculated through matching the captured each frame binocular images using speeded up robust features(SURF),so as to achieve vehicle relative locations.Meanwhile,the feature points of two adjacent frames were tracked and matched based on SURF,and the matching feature points were divided into far points and near points according to different depths of the fields.The rotation matrix andtranslation vector of the co-ordinate systems in vehicle motions were calculated by using the far points and the near points respec-tively,and then optimized them by Levenberg-Marquardt method.Finally,the velocities of the vehi-cles were estimated according to optimized rotational matrices and translation vectors.The results of outdoor simulation test show the effectiveness and feasibility of the proposed method.【期刊名称】《中国机械工程》【年(卷),期】2018(029)004【总页数】6页(P423-428)【关键词】双目视觉;序列图像;特征跟踪匹配;自车速度估计【作者】同志学;赵涛;贺利乐;王消为【作者单位】西安建筑科技大学机电工程学院,西安,710055;西安建筑科技大学机电工程学院,西安,710055;西安建筑科技大学机电工程学院,西安,710055;西安建筑科技大学机电工程学院,西安,710055【正文语种】中文【中图分类】TP216;TP3910 引言工程车辆作业时的实际行驶速度及相对于作业环境的位置信息对车辆控制至关重要,如何快速检测这些运动参数是值得研究的。
双目立体视觉原理
双目立体视觉原理双目立体视觉是指人类通过两只眼睛同时观察同一物体时产生的立体效果。
这种视觉原理是人类视觉系统中非常重要的一部分,它使我们能够感知到物体的深度和距离,为我们的日常生活和工作提供了重要的信息。
在本文中,我们将深入探讨双目立体视觉的原理和应用。
首先,双目立体视觉的原理是基于人类两只眼睛的位置差异而产生的。
由于两只眼睛分别位于头部的两侧,它们所看到的同一物体会有微小的差异。
这种差异包括视差、视角和视线方向等,这些差异为我们的大脑提供了丰富的信息,使我们能够感知到物体的深度和距离。
其次,双目立体视觉的原理还涉及到视觉系统的处理过程。
当两只眼睛同时观察同一物体时,它们所接收到的图像会被传送到大脑的视觉皮层进行处理。
在这个过程中,大脑会将两只眼睛接收到的信息进行比对和整合,从而产生立体效果。
这种比对和整合的过程是非常复杂的,它涉及到大脑的神经元网络和神经递质的作用,是一个高度精密的生物信息处理过程。
另外,双目立体视觉的原理还与人类的视觉经验和学习有关。
通过长期的视觉训练和经验积累,人类能够更加准确地感知物体的深度和距离。
这种经验和学习会影响到我们的视觉系统的发育和功能,使我们能够更加灵活地应对各种复杂的立体环境。
在实际应用中,双目立体视觉原理被广泛应用于计算机视觉、虚拟现实、医学影像等领域。
通过模拟人类的双目立体视觉原理,计算机可以实现立体图像的获取、处理和显示,从而实现立体视觉效果。
在虚拟现实技术中,双目立体视觉原理可以为用户提供更加逼真的虚拟体验,增强沉浸感和真实感。
在医学影像领域,双目立体视觉原理可以帮助医生更加准确地诊断疾病,提高医疗水平。
总之,双目立体视觉原理是人类视觉系统中非常重要的一部分,它使我们能够感知物体的深度和距离,为我们的日常生活和工作提供了重要的信息。
通过深入研究双目立体视觉的原理和应用,我们可以更好地理解人类视觉系统的工作机制,推动计算机视觉、虚拟现实、医学影像等领域的发展和创新。
计算机双目视觉系统设计及其应用
计算机双目视觉系统设计及其应用随着计算机技术的不断发展,双目视觉系统作为一种重要的机器视觉技术,逐渐得到了广泛应用。
双目视觉系统通过模拟人类双眼的视觉感知机制,实现了对三维物体的深度感知和空间定位。
本文将介绍计算机双目视觉系统的基本原理、设计方法以及在各个领域的应用。
计算机双目视觉系统的基本原理是通过两个摄像头模拟人类的双眼,分别捕捉物体的左右视图。
通过对这两个视图进行比对和分析,可以获得物体的深度信息。
具体而言,双目视觉系统通过计算两个视图之间的视差,即两个图像中对应点之间的水平像素差异,进而推算出物体的距离。
这种基于视差的深度感知方法,使得双目视觉系统能够在不接触物体的情况下获取其三维结构。
在双目视觉系统的设计中,关键问题是如何进行图像匹配和视差计算。
为了提高匹配的准确性和效率,可以运用一些图像处理算法,如特征提取、图像配准和立体匹配等。
此外,还需要考虑摄像头的位置和角度,以及相机的标定和校正等工作,以保证系统能够准确地获取视差信息。
计算机双目视觉系统在许多领域都有广泛的应用。
在机器人领域,双目视觉系统能够帮助机器人进行环境感知和导航。
通过对环境中物体的深度感知,机器人可以避开障碍物、定位目标位置等。
在工业制造中,双目视觉系统可以应用于产品质量检测、零件定位和装配等任务。
在医疗领域,双目视觉系统可以辅助医生进行手术操作、病理诊断等。
总之,计算机双目视觉系统是一种重要的机器视觉技术,具有广泛的应用前景。
通过模拟人类双眼的视觉感知机制,该系统可以实现对物体的深度感知和空间定位。
在设计中,需要考虑图像匹配和视差计算等关键问题。
在应用中,双目视觉系统可以帮助机器人进行环境感知和导航,用于工业制造中的质量检测和装配,以及在医疗领域的手术操作和病理诊断等。
随着技术的不断发展,计算机双目视觉系统将在更多领域发挥重要作用。
《双目系统报告》课件
目录
CONTENTS
• 双目系统的概述 • 双目系统的原理 • 双目系统的硬件结构 • 双目系统的软件算法 • 双目系统的应用案例 • 双目系统的未来展望
01 双目系统的概述
双目系统的定义
01
定义
双目系统是一种基于双目立体视觉原理,通过模拟人眼视觉系统,获取
三维空间信息并实现三维重建的技术系统。
其他参数
如动态范围、信噪比等,也是传感器选择的 重要因素。
双目系统的摄像头
摄像头类型
可以选择不同类型的摄像头,如定焦 或变焦摄像头,以满足不同的应用需 求。
焦距
摄像头的焦距决定了拍摄距离和拍摄 范围,应根据应用需求选择合适的焦 距。
光圈
摄像头光圈的大小决定了图像的亮度 和景深,应根据应用需求选择合适的 光圈。
双目系统通过识别物体的形状、大小、位置等信 息,帮助机器人实现精准抓取和操作物体。
双目系统在安防监控领域的应用
01
02
03
目标检测与跟踪
双目系统能够实时检测和 跟踪监控区域内的目标, 对异常行为进行预警和报 警,提高安全防范能力。
场景三维重建ቤተ መጻሕፍቲ ባይዱ
双目系统可以获取场景的 三维信息,实现场景的三 维重建,为后续的智能分 析提供基础数据。
实时处理能力
双目系统的实时处理能力将得到显著提升,满足 更多实时应用场景的需求。
双目系统的应用前景展望
增强现实
机器人视觉
双目系统在增强现实领域具有广阔的应用 前景,如虚拟试衣、导航辅助等。
双目系统可以为机器人提供深度信息和空 间定位能力,促进机器人在智能制造、服 务等领域的应用。
医疗影像分析
娱乐产业
基于双目视觉的移动机器人目标跟踪技术
河北工业大学硕士学位论文基于双目视觉的移动机器人目标跟踪技术姓名:刘会民申请学位级别:硕士专业:机械电子工程指导教师:张明路20081101河北工业大学硕士学位论文基于双目视觉的移动机器人目标跟踪技术摘要计算机视觉是移动机器人最重要的感知手段之一。
做为最丰富的信息来源,它为机器人完成特定的任务提供了便利。
如何从视觉传感器中感知环境的三维信息,并为机器人实现相应的功能提供精确的控制信息是计算机视觉以及移动机器人研究领域的一个重要内容。
其中,双目立体视觉技术是计算机视觉中一个重要的研究方向,它由人的双目产生的立体感中获得启示,研究如何从两个摄像机所得的图像中获取场景中物体的深度(距离)信息。
在国家863项目“极限环境下面向危险品检测的多感官机器人系统”(项目编号:2006AA04Z221)的支持下,本文对移动机器人目标跟踪技术进性了较为深入的研究,取得的主要成果和结论如下:1、通过对三维模型表达方法的分析研究,确定了特征模型的描述方法。
特征模型采用ARG模型,该模型由节点以及节点之间的连线组成。
节点代表模型的特征,连线代表这些特征之间的关系属性。
以此为基础,本文提出了基于双目立体视觉技术的特征提取方法,并通过人机交互的方式建立了ARG特征模型库。
2、本文对目标的跟踪技术进行了深入的研究。
经过对多种颜色模型的比较,采用受光照影响较小的HIS颜色模型来实现目标搜寻任务。
完成目标搜寻任务后可得到RIO区域,利用已建立好的特征模型与该区域内的物体进行匹配,确定被跟踪的对像。
实验表明该方法是行之有效的。
3、对移动机器人目标的定位精度进行了分析与补偿。
本文通过立体视觉处理技术获取了目标质心的三维坐标,即实现了对目标的精确定位。
经过对多次实验结果的分析,总结了定位误差的来源。
并建立了三层BP神经网络来实现对测量数据进行补偿。
通过补偿之后,定位精度得到了提高,满足精确定位的要求。
关键词:移动机器人,双目视觉,目标跟踪,三维模型,目标定位I基于双目视觉的移动机器人目标跟踪技术II RESEARCH ON MOBILE ROBOT TARGET TRACKINGBASED ON BINOCULAR VISIONABSTRACTFor mobile robot, acquiring information by computer vision is one of the most importantsensing methods. As the most sufficient source of information, it makes very convenience for mobile robot to complete specific task.It has became an important research field that how to get the 3D informations of environment and using them to provide accurate information for mobile robot control. The stereo vision is one of the very important part of the computer vision which studys how to acquire the depth information of the object in the world from two images.This paper makes embeded systemic research about the mobile robot target tarcking, supported by Hi-tech Research and Development Program of China named the system of multi-sensory mobile robot for hazardous articles detection in extreme environments.What followed are the main contents:1.The method of configurating features model is analysed. Through research on 3D objects representation method, how to describing the features models in the model database is decided. features model is represented by modelARG(attribute relational graph). modelARG is consist of nods and edges. The nod of model is representation of features of traget and the edge is representation of relation of between two features. On this basis, the method of features extraction using binocular vision is put forward and establish the model database through human-computer interaction approach.2. This paper makes research about traget tracking.color model is analysed.and HIS model is selected.Through traget searching baded on color, mobile robot can get the RIO and follow this is that the traget in the RIO is represented as a attribute relational graph and is matched optimizely with ARG models of model database.If any model is certified, Mobile Robot begain to track the traget. Among these technology, model matched is introduced. Experiments show that the method is effective.3. The moblie robot location accuracy of the target is analyzed. Through the technology of stereo processing to get the 3D information of the target’s centroid,that is to say that get accurate location of traget by this way. Then this paper puts forward a method than using BP neural network to compensate error. Through that, the location accuracy has been improved and meet the precise request.KEY WORDS: mobile robot, binocular vision, target tracking, 3D model, target location原创性声明本人郑重声明:所呈交的学位论文,是本人在导师指导下,进行研究工作所取得的成果。
双目视觉技术的原理、结构、特点、发展现状和发展方向分析
双目视觉技术的原理、结构、特点、发展现状和发展方向分析双目立体视觉是机器视觉的一种重要形式,它是基于视差原理并由多幅图像获取物体三维几何信息的方法。
双目立体视觉系统一般由双摄像机从不同角度同时获得被测物的两幅数字图像,或由单摄像机在不同时刻从不同角度获得被测物的两幅数字图像,并基于视差原理恢复出物体的三维几何信息,重建物体三维轮廓及位置。
双目立体视觉系统在机器视觉领域有着广泛的应用前景。
80年代麻省理工学院人工智能实验室的Marr提出了一种视觉计算理论并应用在双眼匹配上! 使两张有视差的平面图产生有深度的立体图形! 奠定了双目立体视觉发展的理论基础。
相比其他类的体视方法! 如透镜板三维成像,三维显示,全息照相术等! 双目体视直接模拟人类双眼处理景物的方式可靠简便! 在许多领域均极具应用价值! 如微操作系统的位姿检测与控制机器人导航与航测,三维测量学及虚拟现实等。
双目立体视觉原理与结构双目立体视觉三维测量是基于视差原理,图1所示为简单的平视双目立体成像原理图,两摄像机的投影中心的连线的距离,即基线距为b。
摄像机坐标系的原点在摄像机镜头的光心处,坐标系如图1所示。
事实上摄像机的成像平面在镜头的光心后,图1中将左右成像平面绘制在镜头的光心前f处,这个虚拟的图像平面坐标系O1uv的u轴和v轴与和摄像机坐标系的x轴和y轴方向一致,这样可以简化计算过程。
左右图像坐标系的原点在摄像机光轴与平面的交点O1和O2。
空间中某点P在左图像和右图像中相应的坐标分别为P1(u1,v1)和P2(u2,v2)。
假定两摄像机的图像在同一个平面上,则点P图像坐标的Y坐标相同,即v1=v2。
由三角几何关系得到:上式中(xc,yc,zc)为点P在左摄像机坐标系中的坐标,b为基线距,f为两个摄像机的焦距,(u1,v1)和(u2,v2)分别为点P在左图像和右图像中的坐标。
双目视觉系统的原理和设计
双目视觉系统的原理和设计双目视觉系统是一种基于视差原理的三维测量方法。
该系统通过两个摄像机从不同的角度同时获取被测物的两幅数字图像,然后基于视差原理恢复出物体的三维几何信息,重建物体三维轮廓及位置。
双目视觉系统的原理可以概括为以下几个步骤:1. 图像获取:双目视觉系统通常由两个摄像机组成,它们从不同的角度拍摄被测物体。
摄像机获取的图像经过预处理后,进行特征提取和匹配。
2. 特征提取和匹配:这一步是双目视觉系统中的重要环节。
在预处理后,提取出图像中的特征点,并找到对应的特征点对。
特征点匹配是根据特征描述符的相似度来确定特征点之间的对应关系。
3. 立体校正和立体匹配:为了确保左右摄像机获取的图像在同一水平线上,需要进行立体校正。
立体匹配则是确定左右图像中对应像素之间的视差,这一步对于三维重建至关重要。
4. 三维重建:根据视差图和摄像机的参数,通过一系列算法计算出每个像素点的三维坐标,进而得到物体的三维模型。
5. 后期处理:最后,根据需求对重建的三维模型进行进一步的处理,如表面重建、纹理映射等。
双目视觉系统的设计可以根据实际需求进行调整。
影响系统性能的关键因素包括摄像机的分辨率、焦距、基线长度等。
为了获得更准确的三维测量结果,需要选择高分辨率、高精度的摄像机,并确保合适的基线长度和焦距。
此外,还需要进行精确的摄像机标定,以获取准确的摄像机参数。
在系统实现过程中,还需注意算法的优化和稳定性,以确保实时性和准确性。
总之,双目视觉系统是一种基于视差原理的三维测量方法,通过两个摄像机获取被测物的两幅数字图像,然后进行特征提取和匹配、立体校正和立体匹配、三维重建等一系列步骤,最终得到物体的三维模型。
在实际应用中,需要根据具体需求进行系统设计,选择合适的硬件设备和参数设置,并进行算法优化和稳定性测试,以确保双目视觉系统的性能和可靠性。
双目立体视觉之原理揭秘ppt课件
2
双目摄像机视差原理图
坐标系以左相机为准,右相机相对于左相机是简单的平移,用坐标表示为(Tx,0,0)
3
双目摄像机视差原理图
4
双目摄像机视差原理图
5
双目摄像机视差原理图
6
双目摄像机视差原理图
视差公式
7
视差与深度的关系
进而获取物体二维信息,同时也可以通过求 视差获取物体深度信息,实现获取物体距离, 物体高度,物体三维重建等计算。
14
8
二.外极线几何讲解
9
外极线几何知识
非标准外极线几何图
10
1.极平面 2.极线
3.极点 4.极线约束
11
外极线几何
12
三.双目标定
13
双目标定物理意义: 获取非标准外极线几何到标准外极线几何的 变换矩阵,校正两个相机的图像。根据两个相 机的相对位姿,从而在标准外极线几何图像 中获取物体在另一个相机成像中位置。
双目视觉采集处理系统设计方案
双目视觉采集处理系统设计方案双目视觉采集处理系统设计方案双目视觉采集处理系统是一种通过使用两个摄像头模拟人类双眼视觉的技术,可以实现深度感知和三维重建。
这种系统在机器人导航、虚拟现实、自动驾驶等领域具有广泛应用。
下面将介绍一个基于双目视觉采集处理系统的设计方案,并逐步阐述其实现过程。
第一步,硬件选择和布局。
双目视觉系统需要两个摄像头来模拟人类的双眼视觉。
在选择摄像头时,需要考虑其分辨率、帧率和视野角度等因素。
此外,还需要选择合适的支架和支架位置,以确保两个摄像头的距离和角度适当。
第二步,图像采集和同步。
在系统设计中,需要使用两个摄像头同时采集图像,并确保两个摄像头的图像同步。
为了实现图像的同步,可以使用硬件触发器或软件控制方法。
同时,还需要考虑采样率和图像质量的平衡。
第三步,图像校正和匹配。
由于摄像头的位置和角度可能存在微小误差,需要对采集到的图像进行校正和匹配。
通过计算图像的投影变换矩阵,可以将两个摄像头的图像进行对齐和校正,以消除图像间的差异。
第四步,深度感知和三维重建。
在图像校正和匹配之后,可以利用双目视觉系统实现深度感知和三维重建。
通过比较两个图像的视差,可以计算出物体到摄像头的距离。
在此基础上,可以通过三角测量等方法重建物体的三维形状。
第五步,数据处理和应用。
在获得深度感知和三维重建的数据之后,可以进行进一步的数据处理和应用。
例如,可以通过物体识别和跟踪算法,实现对物体的自动识别和跟踪。
此外,还可以将三维重建的数据应用于虚拟现实、自动驾驶等领域。
综上所述,双目视觉采集处理系统的设计方案包括硬件选择和布局、图像采集和同步、图像校正和匹配、深度感知和三维重建以及数据处理和应用等步骤。
通过这些步骤的实施,可以实现双目视觉系统的功能,并应用于各种领域。
BumbleBee2 双目视觉系统简介
Bumblebee®2 双目视觉系统Point Grey Research's IEEE-1394 (FireWire) Stereo Vision camera systems are provided as complete hardware and software packages. Every Point Grey Stereo Vision camera system includes a free copy of the FlyCapture SDK, which is used for image acquisition and camera control, and the Triclops SDK, which performs image rectification and stereo processing. Additional stereo vision software components are available at no extra cost: the Censys3D SDK, which is ideal for people tracking; and the Multiclops software, which allows integration of multiple cameras into a single coordinate system.The Bumblebee®2 is the next generation Bumblebee® stereo vision camera. It provides a balance between 3D data quality, processing speed, size and price. Developed as a drop-in replacement for the original Bumblebee camera, the Bumblebee2 also features double the frame rate and a GPIO connector for external trigger and strobe functionality.l Sensor: Two Sony 1/3" progressive scan CCDs, Color/BWl Resolution and FPS : 640x480 at 48FPS or 1024x768 at 18FPSl Lenses: 3.8mm (70° HFOV) or 6mm (50° HFOV) focal lengthl Calibration: Pre-calibrated to within 0.05 pixel RMS errorl General Purpose IO: GPIO pins for external trigger / strobeAdditional Features and SpecificationsImage Acquisition 12-bit analog-to-digital converterMultiple cameras on the same 1394 bus automatically sync Faster standard frame ratesOverlapped trigger input, image acquisition and transferImage Processing On-camera conversion to YUV411, YUV422 and RGB formats On-camera control of sharpness, hue, saturation, gamma Pixels contain frame-specific info (e.g. 1394 cycle time)Camera and Device Control Broadcast settings to all cameras on the same busAuto and one-push white balance for easy color balancing Reports the temperature near the imaging sensorMonitors sensor voltages to ensure optimal image quality Fine-tune frame rates for video conversion (e.g. PAL, NTSC) Non-volatile storage of camera default settings and user data General purpose input/output pins for external device control Firmware upgradeable in field via IEEE-1394 interface.Camera Calibration Pre-calibrated for lens distortions and camera mis- alignments. The camera works straight out of the box, as it doesn't require in-field calibration and is guaranteed to stay calibrated. Images are aligned within 0.05 pixel RMS error.The calibration information is pre-loaded on the camera, allowing the software to retrieve the image correction information. This allows seamless swapping of the cameras, or retrieving the correct information when multiple cameras are on the bus.The calibration retention system prevents the unit from losing calibration when the device is subject to mechanical shock and vibrationBW vs Color Benefits of Black & WhiteSpeed: BW models are slightly faster than color due to the timeit takes the color model to convert stippled images into colorimages.Higher Resolution: Color is achieved by interpolating raw pixelvalues. Consequently, BW has higher resolution.Higher Fidelity: Due to the light collection methods used bycolor cameras, BW has higher fidelity.Benefits of ColorColor Differentiation: Being able to differentiate betweendifferent colors could allow a mobile robot to, for example,distinguish a red ball from its surroundings.Color Texture Mapping: Users interested in using the device for3D modeling will probably be interested in having full colortexture maps.l Development Kit Contentsn 4.5 meter, 6-pin to 6-pin, IEEE-1394 cablen IEEE-1394 OHCI PCI Host Adapter 3-port 400Mbps cardn Hirose HR10 12-pin male GPIO connector pre-wired for easy triggering n FlyCapture SDK and Triclops SDK (C/C++ API and device drivers)l Recommended System Configurationn Processoru Recommended – Intel Pentium® 4 2.0 GHz or compatible processoru Minimum – Intel Pentium III 800 MHz or compatible processor n Memoryu Recommended – 512 MB RAMu Minimum - 256 MB RAMn AGP video card with 64 MB video memory (128 MB recommended) n32-bit standard PCI slot for the IEEE-1394 cardl Supported operating systemn Microsoft Windows 2000,XP,Vistan Microsoft Visual C++ 6.0 (to compile and run example code)l Emissions and RoHS Compliancen FCC / CE Compliancen This equipment has been tested and found to comply with the limits fora Class A digital device, pursuant to Part 15 of the FCC Rules. Theselimits are designed to provide reasonable protection against harmfulinterference when the equipment is operated in a commercialenvironment. This equipment generates, uses, and can radiate radiofrequency energy and, if not installed and used in accordance with theinstruction manual, may cause harmful interference to radiocommunications. Operation of this equipment in a residential area islikely to cause harmful interference in which case the user will berequired to correct the interference at his own expense.n You are cautioned that any changes or modifications not expressly approved in this manual could void your authority to operate thisequipment.l RoHS / WEEE Compliancen This product is RoHS and WEEE compliant. .Model and Part Numbers*NOTE: One full KIT must be purchased prior to ordering individual cameras Part Number DescriptionBB2-03S2C-38640x480 Color 3.8mm Bumblebee2 SystemBB2-03S2C-60640x480 Color 6mm Bumblebee2 SystemBB2-03S2M-38640x480 BW 3.8mm Bumblebee2 SystemBB2-03S2M-60640x480 BW 6mm Bumblebee2 SystemBB2-08S2C-381024x768 Color 3.8mm Bumblebee2 SystemBB2-08S2C-601024x768 Color 6mm Bumblebee2 SystemBB2-08S2M-381024x768 BW 3.8mm Bumblebee2 SystemBB2-08S2M-601024x768 BW 6mm Bumblebee2 SystemBB2-DEVKIT Bumblebee2 Development Accessory KitNOTES:First time users are required to purchase a Development Accessory Kit in addition to purchasing the initial camera.。
Bumblebee2相关信息
Point Grey为各种应用领域的立体视觉实践提供硬件和软件工具包,包括完整的立体处理支持—从图像校正和相机位置调整到基本浓度相关性的立体测图技术。
立体视觉工作模式类似于人类视觉中的三维感知。
先是识别对应于多台相机测定的实际场景中相同点的图像像素点,然后通过每个镜头的一条射线进行三角测量,确定各点的3D位置。
相关的立体摄像方法试图获取立体图像中的各像素的对用部分,从而是每个立体图像可以生成数以万计的3D数据值。
1.单一图像集的全场视觉深度测量2.图像到3D数据的实时转换—相机每秒可轻松生成一百万个像素点3.易于与其他机器视觉技术集成—图像和3D数据完全对应4.被动3D感知—无需激光装置或投影机5.镜头偏差和相机位置偏差与校准,无需人工调整或视场内校准6.高品质CCD传感器和IIDC1.31兼容高速1394接口7.灵活的软件环境,提供各级立体处理管线的访问第一阶段:原始图像(Raw image)到校正图像(Rectified image)。
校正图像经IEEE-1394总线传送至PC后进行校正并对准以消除镜头偏差。
第二阶段:校正图像(Rectified image)到边缘图像(Edge image)。
拉普拉斯高斯算子,高斯滤波器用于创建图像亮度未发生偏差的边缘图像。
第三阶段:边缘图像(Edge image)到深度图像(Depth image)对于深度图像中各像素的相关立体图像,采用绝对差之后的标准通过相关性获得边缘图像中的对应像素。
Point Grey立体视觉摄像系统在出厂时经过了镜头偏差和相机位置偏差的校准,以确保符合所有相机标定的一致性要求,并避免视场内校准的需要。
系统校正过程中,外极线对齐误差在0.1*像素RMS的范围内。
标定结果存储在相机上,是主机软件在即使缺少相机规格的情况下也能够检索图像校正信息。
该项功能保证相机的无缝交互和多相机系统使用的便利性。
专门设计的相机包可保护校准不受机械冲击和振动影响。
双目立体视觉技术的实现及其进展
双目立体视觉技术的实现及其进展双目立体视觉技术是一种利用双目相机或者双目摄像系统进行图像捕获和分析的技术,通过模拟人类双眼视觉的方式,实现对三维物体的感知和测量。
该技术已经在诸多领域中得到广泛应用,如工业自动化、机器人导航、医学影像等。
双目立体视觉的实现基于两个关键技术要素:立体标定和立体匹配。
立体标定即对双目系统进行校准,获取相机的内外参数,以及相机之间的相对位姿关系。
通过这些参数,可以映射出左右两个相机图像上的对应点之间的像素坐标关系。
立体匹配则是通过像素坐标的转换,找到两幅图像上对应的物体点的三维坐标。
这通常利用视差(图像上对应点的水平偏移量)来进行计算。
立体标定是双目立体视觉技术实现的首要步骤。
一般采用标定板或者灯光棋盘格等目标进行标定,通过对目标在左右图像上的特征点匹配,可以得到相机的内外参数。
标定的结果决定了后续的立体匹配的准确性。
同时,标定结果还可以用于校正相机的畸变。
立体匹配的过程是通过对视差的计算来推测出物体点的深度信息。
常用的立体匹配算法有区域匹配、视差等。
区域匹配是基于图像块的相似性计算,通过在左图像上滑动一个窗口,在右图像上与之最相似的窗口。
视差则是通过左图像上一些像素点附近一定范围内的像素点并计算与之的相似度,以确定视差最小的点。
1.算法优化:研究者们不断改进立体匹配算法,提高了匹配的准确性和效率。
一些新的算法如基于全局能量最小化的方法和基于深度学习的方法,取得了较好的效果。
2.硬件改进:随着技术的发展,双目相机的硬件设备得到了提升,像素数目和分辨率也有了大幅度的增加。
这使得双目立体视觉系统能够获得更高质量的立体图像,从而提高了立体匹配精度。
3.应用拓展:双目立体视觉技术被广泛应用于机器人、自动驾驶等领域。
例如,在机器人导航中,双目立体视觉可以用于检测和定位障碍物,提供实时的环境信息,实现智能导航。
4.结合其他传感器:为了提高测量的准确性和稳定性,双目立体视觉技术常与其他传感器如激光雷达、惯性导航等进行结合。
双目立体视觉
计算机双目立体视觉双目立体视觉技术是仿照人类利用双目线索感知深度信息的方法,实现对三维信息的感知。
为解决智能机器人抓取物体、视觉导航、目标跟踪等奠定基础。
双目立体视觉(Binocular Stereo Vision )是机器视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点之间的位置偏差,来获取物体三维几何信息的方法。
融合两只眼睛获取的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,这个差别,我们称作为视差(Disparity )图像。
双目立体视觉系统立体视觉系统由左右两部摄像机组成,如图,世界空间中的一点A(X,Y ,Z)在左右摄像机的成像面1C 和r C 上的像点分别为)(111,v u a 和)(r r r v u a ,。
这两个像点是世界空间中同一个对象点A 的像,称为“共轭点”。
知道了这两个共轭像点,分别作它们与各自相机的光心1O 和r O 的连线,即投影线11O a 和r r O a ,它们的交点即为世界空间中的对象点A 。
这就是立体视觉的基本原理。
双目立体视觉智能视频分析技术恢复场景的3D 信息是立体视觉研究中最基本的目标,为实现这一目标,一个完整的立体视觉系统通常包含六个模块:图像获取、摄像机标定、特征提取、立体匹配、三维恢复和视频分析(运动检测、运动跟踪、规则判断、报警处理)。
图像获取(Image Acquisition )数字图像的获取是立体视觉的信息来源。
常用的立体视觉图像一般为双目图像,有的采用夺目图像。
图像的获取方式有很多种,主要有具体运用的场合和目的决定。
立体图像的获取不仅要满足应用要求,而且考虑视点差异、光照条件、摄像机的性能和场景特点等方面的影像。
摄像机标定(Camera Calibration )图像上每一点的亮度反映了空间物体表面某点反射光的强度,而该点在图像上的位置则与空 间物体表面相应点的几何位置有关。
基于双目视觉的机器人运动目标检测与定位
基于双目视觉的机器人运动目标检测与定位崔宝侠;栾婷婷;张驰;段勇【摘要】针对移动机器人自定位精度低的问题,提出了先由静止的工作机器人进行自定位,再对运动目标进行检测和定位的方法.基于HSV模型颜色特征,工作机器人分割出人工路标并进行自定位,利用帧间差分法将采集到的视频图像序列中相邻两帧作差分运算,提取出运动目标,并通过双目立体视觉视差原理计算出运动目标的绝对坐标,帮助运动目标完成定位.结果表明,该方法定位精度高于传统的移动机器人自定位的定位精度,且算法的实时性好,具有现实的研究意义.【期刊名称】《沈阳工业大学学报》【年(卷),期】2016(038)004【总页数】7页(P421-427)【关键词】双目视觉;移动机器人;帧间差分法;运动目标;人工路标;HSV模型;阈值分割;定位【作者】崔宝侠;栾婷婷;张驰;段勇【作者单位】沈阳工业大学信息科学与工程学院,沈阳110870;沈阳工业大学信息科学与工程学院,沈阳110870;沈阳工业大学信息科学与工程学院,沈阳110870;沈阳工业大学信息科学与工程学院,沈阳110870【正文语种】中文【中图分类】TP391.4双目立体视觉采用的是类似于人的左右眼识别、理解外界的方式,利用左右两部并行排列的CCD镜头分别获取外界图像,对两幅图进行处理以获得外界的3D信息[1].双目立体视觉是计算机视觉研究中的一个重要分支,能直接模仿人类双眼处理客观场景[2],可以代替人类在危险系数较高的场合(如重度污染区、核辐射区以及有炸弹包裹的大楼等)工作[3].定位是其执行其他任务的前提和基础,也是评价机器人性能的关键指标之一[4].目前的双目视觉移动机器人在定位过程中,一般都是采用移动机器人用双目摄像机直接采集路标完成自定位的方法,这种方法简单高效,但是具有一定的缺陷,即双目视觉传感器可能由于过快或不平稳的运动使得采集路标的图像模糊不准确,导致自定位误差较大,而且移动机器人可能运动到阴暗或难以采集路标的位置,会出现无法采集到路标的情况.针对以上缺陷,文中提出了一种新的定位方法,即由另一个机器人代替移动机器人完成定位,负责定位工作的机器人可以在能够检测到路标和移动机器人的位置保持静止状态,利用传感器完成自定位,再为移动机器人进行定位并实时为其传达位置信息.工作机器人整体的定位流程如图1所示,工作机器人首先采集带有移动机器人与人工路标的视频,然后对视频进行两方面的处理:一方面是分割提取人工路标并找到其质心,根据视差原理求出工作机器人与人工路标质心的相对位置,在实验环境中已知人工路标的质心坐标,这样就能求出工作机器人的绝对坐标,从而完成其自定位;另一方面工作机器人通过对视频图像的处理提取出运动目标,也根据视差原理得到工作机器人与移动机器人的相对位置,由于工作机器人的绝对坐标已经得到,因此可以计算出移动机器人的绝对坐标,即完成了工作机器人自定位及对运动目标检测与定位的任务.本文分别介绍人工路标与运动目标的检测方法,并通过实验比较了工作机器人帮助移动机器人自定位法与传统移动机器人自定位法的优劣.1.1 人工路标检测1.1.1 HSV颜色模型RGB色彩空间是一种常见的颜色表示法,通常摄像机拍摄到的图像都是基于RGB 模型,但RGB色彩空间与人眼的感知差异大,其空间的相似不代表实际颜色的相似[5].为了符合人的视觉特征,同时也由于从RGB到HSV的转换是一个简单且快速的非线性变换[6],本文采用HSV色彩空间颜色模型,如图2a所示.在HSV色彩空间颜色模型中,H和S是色度信息,且独立于亮度信息V,这是HSV模型的一个重要优点[7].色调(H)代表颜色信息,取值范围为0~360°,对其设定阈值可以区分不同颜色的路标;饱和度(S)表示颜色的深浅,取值范围为0~1,S越大,颜色越深;亮度(V)表示颜色的明暗程度,取值范围为0~1,V越大,物体亮度越高.将HSV圆柱模型展开成如图2b所示平面模型,色彩从左至右代表模型中H分量沿逆时针方向从0°变化到360°,从下至上代表饱和度S由中心向圆周渐变,最右侧灰度图代表亮度V.1.1.2 基于颜色特征提取人工路标本文设计的人工路标是由红、蓝、黄三种颜色组成的矩形纸板.图3a所示为左目摄像机拍摄到的机器人所处环境示意图;利用HSV颜色模型对H、S、V三分量进行阈值的设置即可将人工路标提取出来(如图3b所示),但效果不理想,人工路标内部有细小的空洞;而利用相关运算对其进行图像处理后,人工路标内部细小的空洞被填平,提取效果较好,如图3c所示.1.2 运动目标检测1.2.1 帧间差分法帧间差分法[8]是通过对视频图像序列中相邻两帧作差分运算来获得运动目标轮廓信息,即对差分结果阈值判断可以采用式(2),即大于阈值的判断为前景,小于阈值的则判断为背景,从而突出运动区域,确定运动目标.帧间差分法的优点是算法实现简单,对光线等场景变化不太敏感,稳定性好.1.2.2 检测结果移动机器人水平向右运动,图4a、b分别为运动过程中双目摄像机左目采集到的第2帧和第3帧视频图像,图4c为利用帧间差分法检测到的运动目标示意图.检测结果显示,帧间差分法能够将运动目标的轮廓提取出来.2.1 双目立体视觉原理利用两台摄像机从两个视点观察同一景物,以获取在不同视角下的感知图像,通过计算空间点在两幅图像中的视差来获取目标物体的三维坐标,该原理即是视差测距原理[9].空间点在双目摄像机中的成像示意图如图5所示.2.2 工作机器人自定位首先,基于HSV颜色特征对采集到的左右两幅图像中的人工路标进行阈值分割,其次,计算左右两幅图像中人工路标的中心点坐标,将其作为一对匹配点,利用双目视觉视差原理计算人工路标在摄像机坐标系下的三维坐标,由于人工路标是人为设置的,其在坐标系下的绝对坐标已知,由此可以得到摄像机坐标系与环境坐标系的转换关系.利用此关系可以计算出工作机器人的绝对坐标,从而完成工作机器人自定位.2.3 运动目标定位目前,视频运动目标定位方法主要有基于区域生长法、水平垂直投影法以及基于模式分类法[10].基于投影定位方法思路简单,易于实现,精确度高,本文采用基于投影的运动目标定位方法.将运动目标的像素值设为255,其余所有点的像素值设为0,通过对含有运动目标的二值图像进行逐行以及逐列扫描,可以得到运动前景对应的像素点在水平方向以及垂直方向的具体分布情况及坐标值.通过逐行扫描可以得到运动目标对应像素的最小行号rmin和最大行号rmax,同理通过逐列扫描可以得到运动目标对应像素的最小列号cmin和最大行号cmax,由此可以得到矩形框的两个对角点(cmin,rmin)和(cmax,rmax),矩形的中心点坐标为式中:xmid为中心坐标的横坐标值;ymid为中心坐标的纵坐标值.将双目摄像机拍摄到的左右两幅图像中的运动目标检测出来,并用矩形框标记,得出运动目标的中心点坐标,将其作为一对匹配点,利用双目立体视觉视差公式即可求出运动目标在摄像机坐标系下的三维坐标.由于已经通过工作机器人自定位得到摄像机坐标系与世界坐标系之间转换关系,因此,可以计算出运动目标在环境坐标系下的绝对坐标,由此完成运动目标定位过程.本文使用的机器人是由北京博创兴盛技术有限公司开发的自主移动机器人旅行家Ⅱ号,该机器人为两轮差动式控制,在机器人本体上安装了由加拿大Point Grey Research公司生产的Bumblebee2双目摄像机,摄像机固定在机器人顶部,以期获得较好的图像采集角度.旅行家Ⅱ号机器人本体如图6所示,Bumblebee2摄像机的性能参数如表1所示.3.1 运动目标检测仿真结果装有双目摄像机Bumblebee2的移动机器人为工作机器人,实验环境中将另一台移动机器人作为运动目标.运动目标在实验环境中分别作纵向运动与横向运动,运动速度为0.1 m/s,如图7所示.墙上贴有由红、蓝、黄三种颜色构成的人工路标,双目摄像机对工作机器人所处环境每1 s采集一帧图像,共采集15帧.图8为检测运动目标纵向运动示意图,图8a~d分别为双目摄像机采集到的原始视频第5帧和第12帧左右两幅图像;图8e~h为利用帧间差分法对运动目标进行检测并用矩形框进行标记的结果示意图.图9为检测运动目标水平运动示意图,图9a~d分别为双目摄像机采集到的原始视频第7帧和第12帧左右两幅图像;图9e~h分别为利用帧间差分法对运动目标进行检测并用矩形框进行标记的结果示意图.3.2 传统移动机器人自定位传统移动机器人纵向与水平运动自定位数据如表2和表3所示.3.3 工作机器人帮助运动目标定位人工路标检测结果数据显示如表4所示,工作机器人自定位数据如表5所示,运动目标纵向运动定位数据如表6所示,运动目标水平运动定位数据如表7所示. 通过与传统机器人自定位数据的对比可以看出,利用工作机器人代替移动机器人进行定位的精度要高于移动机器人自定位的精度.只有极少部分数据显示移动机器人的定位误差更小,但大多数的情形下,采用工作机器人自定位再对运动目标进行检测与定位的方法精度更高.虽然本文所述方法算法较多,但算法比较简单,实时性好,充分满足要求.本文提出的运动目标检测与定位的思路是首先利用定位机器人自定位,再对运动目标定位.实验结果表明,工作机器人自定位相对误差不足1%,运动目标纵向运动与水平运动定位的相对误差在多数情况下低于工作机器人自定位的误差,且算法的实时性较好,具有现实的研究意义.【相关文献】[1]吴若鸿.基于特征匹配的双目立体视觉技术研究 [D].武汉:武汉科技大学,2010.(WU Ruo-hong.Research on binocular stereo vision technology based on feature matching [D].Wuhan:Wuhan University of Science and Technology,2010.)[2]杜宇.三维重建中双目立体视觉关键技术的研究 [D].哈尔滨:哈尔滨理工大学,2014.(DU Yu.Research on key technology of binocular stereo vision in three-dimensional reconstruction [D].Harbin:Harbin University of Science and Technology,2014.)[3]余俊.基于双目视觉的机器人目标检测与控制研究 [D].北京:北京交通大学,2011.(YU Jun.Research on target detection and robot control based on binocular vision[D].Beijing:Beijing Jiaotong University,2011.)[4]张本法,孟祥萍,岳华.移动机器人定位方法概述 [J].山东工业技术,2014(22):250. (ZHANG Ben-fa,MENG Xiang-ping,YUE Hua.Outline of mobile robot localization methods [J].Shandong Industrial Technology,2014(22):250.)[5]黄雁华,武文远,龚艳春,等.量化颜色直方图的改进与应用 [J].光电技术应用,2011,26(4):76-80.(HUANG Yan-hua,WU Wen-yuan,GONG Yan-chun,et al.Improvement and application of color histogrm [J].Electro-optic Technology Application,2011,26(4):76-80.)[6]郭英华.基于HSV色彩空间的图像分割 [J].黑龙江冶金,2011,31(2):35-37.(GUO Ying-hua.Image segmentation based on HSV color space [J].Heilongjiang Metallurgy,2011,31(2):35-37.)[7]陈向东,李平.基于色彩特征的CAMSHIFT视频图像汽车流量监测[J].沈阳工业大学学报,2015,37(2):183-188.(CHEN Xiang-dong,LI Ping.Vehicle flow detection with CAMSHIFT video images basedon color feature [J].Journal of Shenyang University of Technology,2015,37(2):183-188.)[8]张晓慧.视频监控运动目标检测算法的研究与实现 [D].西安:西安电子科技大学,2012. (ZHANG Xiao-hui.Research and implementation on moving object detection algorithm in video surveill ance [D].Xi’an:Xidian University,2012.)[9]靳盼盼.双目立体视觉测距技术研究 [D].西安:长安大学,2014.(JIN Pan-pan.Study on the technology of binocular stereo vision measurement [D].Xi’an:Chang’an University,2014.)[10]张君昌,李明,谷卫东.融合减法聚类与C-均值聚类的目标定位方法 [J].计算机仿真,2012,29(7):269-273.(ZHANG Jun-chang,LI Min,GU Wei-dong.Joint subtractive clustering and C-means clustering object Location algorithm [J].Computer Simulation,2012,29(7):269-273.)。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
本文所包含的内容:
讲述了bumblebee 立体视觉的原理
讲述了bumblebee Demo 程序中各项参数的含义及如何调整
讲述了为什么在深度图像和重构的3D 图像中有无效的像素
本文的阅读方法:
红色字体是关键的地方
立体视觉
本文将试着去阐述立体视觉技术。
阅读完本文后你将对数据如何在系统中流动和其间所有可调整的参数有一个更深入的了解。
这将使你可以量身定做自己的系统来完成特殊的任务。
立体视觉的基本原理
立体视觉的任务是完成空间的测量,这种测量是基于空间上存在偏移的相机所采集到的图像的。
立体视觉的处理过程可分为如下三步:
建立从不同观测角度所获得的同一场景图像特征的相关。
计算每幅图像中相同特征的相对位移
根据相机的几何结构,决定特征相对于相机的3D 位置
考虑如下两幅图片。
这两幅图片取自一对存在水平偏移的Triclops 相机模型。
我们可以在两幅图片中分别定义两个点A 和B 。
点left A 对应于点right A ,同样的,点left B 对应于点right B 。
使用一把尺子,如果你测量一个点到图像边缘的水平距离,你会发现左图的这个距离比右图中对应点到图像边缘的水平距离要大。
例如,左图中边缘到电话听筒的距离要大于右图中边缘到电话听筒的距离。
我们就可以根据这个距离(也被叫做视差)来确定电话听筒到相机模型的距离。
我们把左图和右图中相同特征在各自坐标系中的值的差定义为视差。
你会发现在两幅图中,图像上端到所匹配的特征的距离完全相同,这是因为相机是水平排列的,因此只有水平的位移。
于是特征A 的视差被定义成D(A) = x(A left ) – x(A right ),B 的则为D(B) = x(B left ) – x(B right ),其中x(A left )是A left 点的x 轴坐标。
如果你去计算D(A) 和D(B),你会发现 D(A) <D(B),这说明在这个场景当中点A 比点B 要远。
建立相关
Triclops 库使用绝对相关偏差和的方法来建立图像间的相关。
这种方法的原理如下: 对于图像中的中每一个像素
在参照图像中,按照给定的正方形尺寸选择一个邻域
将这个邻域沿着同一行与另一幅图像中的一系列邻域相比较
找到最佳的匹配
结束
邻域的比较方法如下面的公式所示:
]][[]][[22
22max min min j y d i x I j y i x I left right j i d d d m m
m m
+++−++∑∑−=−== 其中:
min d 和max d 是最小和最大视差(disparity )
m 是模板尺寸(mask size )
right I 和left I 是右面的图像和左面的图像
计算距离
物体到相机的距离可由视差和相机的几何结构确定。
所匹配的特征的距离是视差,镜头焦距的长度,CCD 的分辨率和基线长度(两相机间的距离)的函数。
Triclops 库提供了深度映射转化为距离图像的函数。
下面的方程给出了视差与距离的关系以及单个相机中世界坐标与像坐标的关系:
d bf Z =;f u Z X =;f
v Z Y = 其中:
(X ,Y ,Z )是3D 点在世界坐标系中的位置
f 是相机的焦距
(u ,v )是像坐标
d 是视差值
b 是相机间的基线长度
Triclops 库中的数据流程
Triclops 库中的数据流程如下图所示。
系统首先从相机模型中获得raw 格式的图像,最终将其处理成深度图像。
在系统中有两个主要的处理模块。
第一个处理模块是一个应用了低通滤波、图像校正和边缘检测的预处理模块。
第二个处理模块用来做立体匹配、结果确认和亚像素插值。
最后的处理结果就是一幅深度图像。
预处理(Pre-processing )
为了校正一幅图像,事先对其进行平滑是非常重要的。
所以如果要校正一幅图像,事先将低通滤波器打开是很好的方法。
当然不使用低通滤波器同样可以校正图像,但校正后的图像可能会出现混淆的现象。
如果要提高处理速度,可以将低通滤波器关掉。
校正(Rectification)
校正是用来修正镜头所产生的畸变的。
在原始图像中可以看到镜头所带来的这种畸变。
例如,场景中的一条直线在原始图像中会变成一条曲线,这种效果在图像的边角处尤为明显。
校正就是为了修正这种类型的畸变。
进一步来讲,如果没有正确的校正,那么沿着行或者列所做的特征搜索将可能产生错误的结果。
边缘检测(Edge detection)
边缘检测是一项任选的特性,它使用亮度的变化来匹配特征。
当系统中的相机具有自动增益功能时,这项功能是非常有用的。
如果每个相机的自动增益的变化是不一致的,那么图像间的绝对亮度是不一致的,而虽然绝对亮度是不一致的,但亮度的变化却是一个常数。
因此边缘检测适用于光照有很大变化的环境当中。
虽然边缘检测可以改善检测的结果,但这相当于又引入了另外的处理步骤,因此要权衡结果的改善状况和速度之间的关系来使用这项功能。
注意,确认功能仅在边缘检测模式下有效。
立体处理(Stereo processing)
立体处理使用前面所讲过的绝对相关偏差和的算法。
视差范围(Disparity range)
视差范围是立体算法为了在两幅图像中搜寻最佳匹时,所搜寻的像素的范围。
在Triclops系统中0个像素的视差代表了无穷远处的物体。
最大的视差定义了能被检测到的最近的物体。
我们需要根据实际的任务来设置合适的视差范围。
减小视差范围可以加快系统的运行速度,并降低误匹配的几率。
相关模板(Correlation mask)
相关模板是围绕着一个像素的一个正方形邻域,这个像素就是系统想要为其寻找匹配的像素。
我们可以设定这个相关模板的尺寸。
大的模板会产生更密集更平滑的深度图像,然而,在识别不连续深度位置的精度上会有所欠缺。
另一方面,小的模板所产生的图像较为稀疏且会有更多的噪声,但在定位不连续深度的时候会有上佳的表现。
为了生成相同的结果,模板的尺寸要与被处理图像的分辨率成一定的比例。
就是说为了得到具有可比性的结果,对于160x120图像的5x5的模板,对于320x240图像的时候模板要增大到9x9。
模板的尺寸必须是奇数。
3x3,5x5,7x7是有效的模板尺寸,而4x4,6x6,8x8则是无效的模板尺寸。
Triclops提供了最大为15x15和最小为1x1的模板。
另外,Triclops中提供了一个新的用于实验的函数:troclopsSetAnyStereoMask,这个函数允许用户设置任意尺寸的相关模板。
确认(Validation)
在一些情况下,例如封闭的缺乏变化的质地,是无法建立图像之间的相关的。
如果相关建立的不正确,那么测量的结果也就是不正确的了。
为了避免不正确的测量,系统引入了两个确认的方法:
质地确认(Texture validation)是基于相关模板的质地的水平的,它决定了视差值是否有效。
如果质地的水平不足以产生一个正确的匹配,这个像素就会被声明为无效。
唯一性确认(Uniqueness validation)是指对于一个特定像素的最佳匹配和这个相关模板下的其他匹配比起来是不是足够好。
即使相关模板的质地满足要求,由于封闭的原因,可能还是
用户可以设定两个阈值来控制确认的严格程度——一个是质地另一个是唯一性。