双目视觉机器人障碍物检测算法研究

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

图像对,对其进行可疑障碍物检测,提取出5组图像对中的可疑障碍物,并得到不同可疑障碍物的距离信息,最后计算不同可疑障碍物的干涉区域,进行干涉判别。

实验结果表明:本文的障碍物检测算法在1500mm~4000mm之间,检测效果良好,可以满足课题要求。

关键词:角点检测;相机参数获取;视差图获取;可疑障碍物检测;障碍物检测
suspicious obstacles. (4) In the obstacle detection stage, according to the perspective projection model, the projected size of the obstacle area of the carrying robot in the image is firstly calculated, and the interference area of the suspicious obstacle at different distances is obtained; Then the suspicious obstacle and its interference region are interfered to determine whether the suspicious obstacle is an obstacle.
Since the size of the interference region is inversely proportional to the distance of the suspicious obstacle, the accuracy of the distance measurement is firstly verified in this paper, then a large number of ranging tests were conducted to obtain the original distance data within 1500 mm~4000mm, finally Matlab software is used to process the experimental data. The results show that the maximum ranging error is 34.7mm and the average ranging error is 23.91mm within the range of measurement; Then, in the simulated experimental environment and outdoor environment, five groups of suspicious obstacles were collected, and the suspicious obstacles were detected. The suspicious obstacles in the five groups of image pairs were extracted, and the distance information of different suspicious obstacles is obtained; Finally, the interference areas of different suspicious obstacles were calculated for interference discrimination. Experimental results show that the obstacle detection algorithm in this paper has good detection effect and can meet the requirements of the project within 1500mm~4000mm.
Key Words: Corner detection; Camera parameter acquisition; Parallax acquisition; Suspicious obstacle detection; Obstacle detection
目录
1 绪论 (1)
1.1 研究背景与意义 (1)
1.2 国内外研究现状 (1)
1.2.1 国外研究现状 (1)
1.2.2 国内研究现状 (3)
1.3 论文主要内容及章节安排 (4)
2 双目立体视觉理论与障碍物检测系统设计 (7)
2.1 双目立体视觉模型概述 (7)
2.1.1 横向平行式双目立体视觉模型 (7)
2.1.2 横向汇聚式双目立体视觉模型 (8)
2.2 摄像机成像模型 (9)
2.2.1 摄像机成像模型中的坐标系 (10)
2.2.2 线性成像模型 (11)
2.2.3 非线性成像模型 (12)
2.3 障碍物检测系统设计 (14)
2.3.1 模拟环境搭建 (14)
2.3.2 硬件平台搭建 (14)
2.3.3 软件设计 (16)
2.4 本章小结 (18)
3 相机参数获取及可疑障碍物图像矫正 (19)
3.1 相机标定和图像校正的必要性 (19)
3.2 摄像机常用标定方法 (20)
3.2.1 传统的摄像机标定方法 (20)
3.2.2 张正友标定方法原理 (22)
3.3 角点检测算法 (24)
3.3.1 常用的角点检测算法 (24)
3.3.2 改进的快速角点检测算法 (26)
3.3.3 实验结果及分析 (28)
3.4 相机参数获取及结果分析 (30)
3.4.1 相机标定步骤 (30)
3.4.2 标定结果评价 (33)
3.4.3 标定精度的影响因素分析 (34)
3.5 可疑障碍物图像矫正 (35)
3.5.1 图像矫正概念 (35)
3.5.2 Bouguet矫正原理 (36)
3.5.3 矫正结果及分析 (37)
3.6 本章小结 (40)
4 可疑障碍物视差图获取 (43)
4.1 立体匹配基本概念 (43)
4.1.1 立体匹配的基本构成 (43)
4.1.2 立体匹配约束准则 (45)
4.2 立体匹配算法分类 (46)
4.2.1 局部立体匹配算法 (46)
4.2.2 全局匹配算法 (46)
4.2.3 半全局立体匹配算法 (47)
4.3 SGM半全局立体匹配算法 (47)
4.3.1 逐像素匹配代价函数计算 (47)
4.3.2 匹配代价的聚合 (48)
4.3.3 视差优化 (49)
4.3.4 立体匹配算法实验对比分析 (51)
4.4 本章小结 (55)
5 可疑障碍物检测 (57)
5.1 图像预处理 (57)
5.1.1 图像灰度化 (58)
5.1.2 直方图均衡化 (58)
5.2 可疑障碍物提取 (61)
5.2.1 视差图伪彩色处理 (61)
5.2.2 伪彩色视差图二值化 (63)
5.2.3 计算非零像素的最大最小坐标 (64)
5.2.4 可疑障碍物提取 (66)
5.3 本章小结 (67)
6 障碍物检测 (69)
6.1 距离测量实验 (69)
6.1.1 距离测量原理 (69)
6.1.2 测量实验及结果误差分析 (70)
6.2 障碍物检测实验 (74)
6.2.1 干涉区域计算 (74)
6.2.2 干涉判别及分析 (77)
6.3 本章小结 (82)
7结论与展望 (83)
7.1 结论 (83)
7.2 展望 (83)
参考文献 (85)
攻读硕士学位期间发表的论文 (85)
致谢 (91)
学位论文知识产权声明 (92)
学位论文独创性声明 (93)
1 绪论
1 绪论
1.1 研究背景与意义
随着工业4.0战略的兴起,制造业对自动化设备提出了更高的灵活性和智能性要求,而且劳动成本的倍增增加了企业的负担,越来越多的企业开始关注建设智能工厂和无人工作坊[1]。

特别是在喷涂、搬运、防爆和深水作业等重复性和危险性较高的工作中,对机器人的需求量很大。

本课题来源于未央科技局科技计划项目—基于双目视觉的全向运动工业搬运机器人研制。

该项目针对工业现场的无人物料搬运问题,拟设计一款全向运动工业搬运机器人。

该搬运机器人在功能上:采用双目立体视觉技术来实现路径规划、障碍物规避以及目标识别;在结构上:底盘采用全向运动的工业级麦克纳姆轮,能够实现工业现场全覆盖的物料自动搬运工作。

在无人运料车间搬运物料时,搬运机器人要想顺利的到达物料的位置,需要进行障碍物的规避。

搬运机器人避障时不需要区分不同的外界事物,只需要简单的将障碍物区域和可行区域分离开,然后获取障碍物的距离,大小,坐标等信息,再通过一定的技术实现避障。

通过以上内容可知,搬运机器人避障的关键就是障碍物的检测,即障碍物距离和面积信息的提取。

搬运机器人在无人运料车间移动时,常见的障碍物有:集装箱、工具箱、工件等。

基于此问题,本文研究了一种用于搬运机器人的,基于双目立体视觉的障碍物检测算法,该算法能够检测机器人前方视场内与自身障碍区域存在干涉的障碍物,该算法的检测范围为1.5米到4米。

该课题研究的算法不仅可以用在搬运机器人中,还具有一定的广泛性以及参考价值,能够适用于多种场合,例如:工件识别定位、机器人导航、水下机器人避障等领域。

1.2 国内外研究现状
障碍物检测是一种利用计算机对图像分析以提取图像中障碍物信息的技术,针对移动机器人在运动过程中的避障问题,国内外学者做了大量的研究。

通过查阅大量的文献以及资料,障碍物检测技术主要分为四大类:基于深度学习的检测,视觉传感器检测,多个传感器融合检测,以及基于分类器的检测。

下面将分别从国外和国内两个方面对该技术的研究现状进行概述。

1.2.1 国外研究现状
Kanade和Schneiderman提出建立车辆特征的分类器训练法对不同视角下的车辆进行
西安工业大学硕士学位论文
检测,分类器是根据目标车辆和非目标车辆外观特征的直方图建立起来的[2]。

Zhao M等人将光探测技术与雷达传感器系统进行结合使用,来检测自主自行车类障碍物,该方法考虑了自行车独特的动力特性。

首先,将周围环境三维点云分割为自行车路径内的离散障碍物群,并且对于含有液体的路面,提出了一种新的检测方法,实现了局部路径规划和路径跟踪,从而使得自行车能够避开路线上最近的障碍物[3]。

Himmelsbach M使用三维激光雷达对地面机器人运动过程中的障碍物进行检测,对于障碍物的特征提取,提出了使用局部点云属性的统计信息,通过点上的直方图捕获特征,这种方法提高了地面机器人感知系统的实时性[4]。

Azim A提出了一种无目标先验知识的动、静目标识别方法,并且使用该方法对Velodyne HDL-64E激光雷达传感器获得的数据进行了演示,最后使用GNN技术对检测到的运动目标进行分类和跟踪,该方法的优点在于能够有效的表示三维动态环境,并能观察到3D传感器检测到的大量信息[5]。

Pal提出了模糊边缘检测算法,该算法利用边缘信息对障碍物进行检测,从而区分开障碍物区域和背景区域,但该方法边缘信息容易丢失,并且实时性差[6]。

Chen X等人将红外雷达技术与单目视觉传感器技术进行结合,来检测障碍物。

如果视觉传感器采集到的图像不存在障碍物,则显著性检测无效,但是红外雷达被用来探测和预先定位物体,然后视觉模块采用凸点定位方法对目标进行检测,该方法效果较好[7]。

Nguyen V D等人提出了一种可以进行障碍物检测和识别的通用框架,该框架使用深度学习算法,结合多种局部特征进行目标检测与识别,该框架结合多种特征进行障碍物检测和识别[8]。

Alvarez J M Á等基于单目视觉传感器,提出了一种对阴影区域具有鲁棒性的道路检测方法,该方法将阴影不变特性空间和逐帧框架中的道路类似度分类器相结合,通过在线建立模型,检测出图像中阴影区域的物体。

实验表明,该算法对于阴影和光照变化具有较强的鲁棒性,并且不依赖于道路形状的限制[9]。

Manduch R等将彩色立体声照相机和单轴激光雷达传感器进行结合,用来进行数据采集,并且提出了基于立体距离测量的障碍物检测方法,该方法不依赖于场景中的典型结构假设(如可见地面平面存在),在复杂的路面环境中,能够寻找到障碍物。

但是该方法计算量大,对噪声比较敏感[10]。

Santana P等针对文献[10]中算法的缺点,提出了一种计算周期较小的障碍物检测算法,该算法对异常值具有极强的抵抗力,并且算法采用空间变化的图像分辨率自适应原理,来减少计算量。

实验结果表明:该算法即使在低信噪比的情况下,也能够区分背景中的障碍物[11]。

Oniga F等人将数字高程图(Digital Elevation Map, DEM)应用到障碍物检测算法中,提出了一种基于DEM单元3-D点密度的障碍物检测方法,该算法将稠密立体匹配生成的三维数据转换成矩形数字高程图(DEM),将道路模型转换为二次曲面,考虑了垂直曲率
1 绪论
会随着深度的增加而变化的三维不确定性,采用基于密度的障碍物检测方法,弥补了由于道路纹理不良而可能导致的道路密度三维数据缺失[12]。

Danescu R等人对基于数字高程图(DEM)的障碍物检测算法进行了改进。

针对动态DEM 的非参数pdf 贝叶斯跟踪问题,利用粒子集设计了一个直观、易于调整的系统。

该算法在处理高程图中的移动元素时,对粒子重采样机制进行了原始修改,以便在粒子与测量结果不一致时减少细胞中的粒子数量,从而为移动障碍物腾出空间,提高了检测速度[13]。

1.2.2 国内研究现状
Shi Jinjin等人针对非结构化道路跟踪,提出了一种基于快速鲁棒消失点检测的障碍物检测方法。

该方法主要利用图像中的纹理信息,获得车辆行驶过程中,前方的可行驶区域,从而排除障碍物区域的干扰[14]。

齐小燕研究了基于双目立体视觉的V-视差法的障碍物检测算法,利用基于Hough检测的直线拟合算法V-视差图进行处理,通过视差相近理论,检测出了障碍物并得到了其深度信息[15]。

程嘉煜提出了一种新的运动障碍物检测算法,通过对机器人自运动进行补偿,然后使用帧差法来检测运动目标,最后消除了误检和漏检现象[16]。

杨飞将Velodyne64位三维激光雷达传感器应用于障碍物检测中,使用多假设跟踪算法进行数据关联,并用卡尔曼滤波模型估计运动目标的状态,最终实现了室外未知环境的运动目标的检测[17]。

吉林大学金立生等人将毫米波雷达技术和机器视觉技术相融合,来检测夜间车辆,通过建立传感器之间的相互转换关系,在图像上形成感兴趣区域,然后利用数据融合技术,实现前方车辆距离和速度的检测[18]。

谭力凡将机器视觉技术与毫米波雷达技术相结合,来实现前方车辆目标检测,通过将毫米波雷达与机器视觉的数据相融合,可以准确的识别出前方车辆的位置[19]。

聂正威对传统的基于U/V视差法的障碍物检测算法进行了改进,通过在一定视差范围内迭代搜索障碍物区域,从而逐渐逼近障碍物的具体位置。

然后引入了颜色梯度信息,对传统的贝叶斯算法进行改进,生成了稠密的视差图,最终获得了障碍物的信息[20]。

王淏在图像获取阶段,通过在FPGA上设计的采集模块改善了图像采集的性能,提高了图像采集的传输效率;在立体匹配阶段,通过将Harris角点特征检测算法与SIFT立体匹配算法进行结合,提高了匹配的效率,最终获得了障碍物的深度信息,实现了障碍物的检测[21]。

刘锐等人提出了一种基于柱状图的障碍物检测方法,通过将图像分割成若干个柱状图区域,提取每个柱状图区域里的障碍物深度信息,然后检测柱状图区域里的障碍物相对于无人机的方向,最后实现了障碍物的检测[22]。

曹腾等提出了一种在视差空间分析障碍物的“V-截距”新方法,该方法通过将障碍物
西安工业大学硕士学位论文
的坡度信息转换为视差空间中V轴的截距来实现检测,在原理上该方法不受平面道路的假设约束。

实验结果表明:该方法的障碍物检测结果可靠,稳定,实时性好[23]。

宗长富等人针对传统欧式聚类算法在处理三维激光雷达点云数据时出现的弊端,提出了一种三维激光雷达点云去畸变方法:对变形点进行坐标变换;同时改进了欧式聚类方法,通过关联距离阈值与检测距离,使得阈值能够灵活变化,能够准确快速的检测出障碍物,但是该方法在高车速时会失效[24]。

薛金林等人将视觉传感器与激光雷达进行结合,以实现障碍物的检测。

首先,对单目相机获取的图像,采用Ft算法进行显著性检测,再对激光雷达反射点进行关联性评估和聚类分析,确定出基于激光雷达点的图像种子点的受限区域生长法可以有效地进行障碍物分割。

最后将视觉传感器数据和激光雷达数据进行融合,实现了障碍物的完整检出[25]。

王海等人将四线激光雷达技术应用于障碍物检测。

首先,对原始雷达数据进行栅格化,通过多条件判断滤除小障碍物,对滤波结果采用网格聚类和密度聚类相结合的方法进行分割;然后依据栅格深度值,确定聚类阈值,最后通过相邻帧障碍物块的匹配对聚类结果进行修正。

实验结果表明:本文方法较已有方法,可以更准确的得到障碍物的路面信息[26]。

对于双目视觉技术在测距方面的应用,我们实验室已经有了一定的研究成果。

2016年,牛秀娟师姐针对火灾点的检测,提出了一种基于双目立体视觉技术的测距系统,该系统提出了一种融合的动态模板匹配算法,提高了双目视觉系统对运动目标匹配的准确性;最终通过进行大量的实验,结果表明:测量范围在50m以内,精度<=1米;测量范围在100米以内,精度<=2m。

基于深度学习方法和基于分类器的障碍物检测都需要大量的数据集,在常规的项目和应用中,这种方法,有着诸多的限制;基于多传感器融合的障碍物检测方法成本较高,系统设计复杂;相比之下,视觉传感器对阴影、光照、反光等天气变化造成的背景变化不敏感,同时能够获得丰富的场景信息,准确性和可靠性较高,更重要的是,视觉传感器的价格低廉,更适合商业应用。

一般来说,将视觉传感器用于障碍物检测有两种方式:单目检测和双目检测。

相比于单目检测,双目检测的优势更加突出,它对障碍物的状态没有要求,只需要采集空间场景中不同位置的目标图像,然后对目标图像进行图像处理,恢复三维空间中目标的信息[27]。

因此,本课题使用双目立体视觉技术进行障碍物检测研究。

1.3 论文主要内容及章节安排
本文基于双目立体视觉技术,提出了一种障碍物检测方法,该方法的原理框图如图1.1所示。

实现步骤如下:
1)采集机器人前方视场内的可疑障碍物图像;
2)离线对双目相机进行标定,获取摄像机的参数;
3)根据标定得到的参数对采集到的可疑障碍物图像进行立体矫正;
4)使用立体匹配算法,获得矫正以后可疑障碍物图像的视差图;
1 绪论
5)对可疑障碍物视差图进行伪彩色处理,得到伪彩色视差图,然后基于伪彩色视差图,实现可疑障碍物的检测;
6)根据上一步骤中检测到的可疑障碍物的距离信息,画出可疑障碍物的干涉区域,最后,对可疑障碍物进行干涉判别,从而判断可疑障碍物是否是障碍物。

图1.1 障碍物检测原理框图
根据本课题的研究背景,对障碍物进行如下定义:机器人在运动过程中,由于自身具有一定的体积,会产生一定的障碍区域。

在检测范围以内,机器人前方视场中和障碍区域存在干涉的所有可疑障碍物均为障碍物。

本论文主要研究内容和章节安排如下:
第一章:介绍了本课题所研究的障碍物检测算法的背景及意义,通过分析障碍物检测的研究现状,根据本课题的要求,通过算法原理框图的形式表现了本课题的主要研究内容,以及障碍物检测算法的整个实现思路。

第二章:介绍了两种双目立体视觉模型以及摄像机的成像模型,从而引出相机标定参数的意义,根据横向平行式双目立体视觉模型,搭建了硬件实验平台,并进行了软件设计工作。

第三章:通过分析对比传统的四种标定方法的优缺点,结合本文实验条件,选择“张氏标定法”进行双目相机标定,从而获取摄像机的参数,并在角点提取阶段,使用改进的快速角点检测算法提高标定精度。

最后,使用Bouguet立体矫正方法,根据双目相机的参数对左右图像进行了矫正。

第四章:本文通过立体匹配技术来获取可疑障碍物图像的视差图,从而为可疑障碍物检测和提供基础,在立体匹配阶段,本文在对比三类立体匹配算法(局部,全局,半全局)的基础上,选择了半全局匹配算法(SGM)生成视差图,并针对初始视差图的缺点,进行了优化处理。

最后通过大量的立体匹配实验验证了算法的正确性和适应性。

第五章:在得到视差图的基础上,进一步对视差图进行处理,得到可疑障碍物视差图的伪彩色图像,然后按照颜色区域对其进行二值化处理,并计算二值图像中非零像素的最大最小坐标,根据坐标值绘制出矩形框,从而实现可疑障碍物的检测。

第六章:详细分析了距离检测和障碍物检测的原理,通过大量的测距实验,验证了测距算法的精度。

通过可疑障碍物检测方法对采集到的模拟环境和室外的多组图像进行处理,提取出可疑障碍物,然后根据干涉检测原理,对可疑障碍物进行干涉判别,以此确定
西安工业大学硕士学位论文
可疑障碍物是否是障碍物,从而实现障碍物检测算法。

第七章:对本文的研究内容进行了回顾和总结,然后进一步指出了课题中需要完善和待解决的一些问题。

2 双目立体视觉理论与障碍物检测系统设计
2 双目立体视觉理论与障碍物检测系统设计
立体视觉技术是为了从图像信息中推导出精确的场景信息。

立体视觉的实现有多种方式,双目视觉是模拟人眼的视觉系统,通过一系列的图像处理,从而获得所观察场景的三维信息,它是通过拍摄场景中不同角度的两张图像,然后对这两张图像进行算法处理,得到场景中物体的形状和三维信息[28]。

下面将首先介绍双目立体视觉的基本理论:双目立体视觉模型和摄像机成像模型,然后介绍障碍物的检测系统设计:模拟实验环境搭建,硬件平台搭建以及软件算法设计。

2.1 双目立体视觉模型概述
在双目立体视觉成像系统中,根据两个摄像机摆放的位置不同,可将双目立体视觉系统模型分为两种:横向平行式双目立体视觉和横向汇聚式双目立体视觉。

这两种模型在摄像机的成像视角,匹配时的搜索范围,以及对目标定位的准确性方面都有一定的影响[29]。

2.1.1 横向平行式双目立体视觉模型
横向平行式双目立体视觉系统成像原理如图2.1所示:
图2.1横向平行式成像原理
如图2.1所示,两摄像机光轴平行,其投影中心连线的距离被称为基线距离,表示为
B ,假设空间中的一点(,,)c c c P X Y Z ,在左、右两个图像平面上的投影点为(,)l l l P X Y =和r P (,)r r X Y =。

将两摄像头固定于同一平面,则在点P 的图像坐标中,Y 坐标系是相同的
即l r Y Y Y ==。

由三角关系可得公式(2.1):
西安工业大学硕士学位论文
()
c
l
c
c r c c
c x X f z x B X f
z y Y f z ⎧=⎪⎪⎪-=⎨⎪
⎪=⎪⎩
(2.1) 令视差为:l r D X X =-,则点P 在摄像机坐标系中的三维坐标为式(2.2):
l c
l c
c
B X x D
B Y y D B f z D ⋅⎧
=⎪⎪
⋅⎪
=⎨⎪
⋅⎪=⎪⎩
(2.2) 如果左图像平面上的点l p 与右像面上的点r p 互为匹配点,则说明这两点存在视差,然后根据公式(2.2)可以确定该点的三维坐标。

2.1.2 横向汇聚式双目立体视觉模型
横向汇聚式双目立体视觉成像原理图如图2.2所示:
图2.2 汇聚式双目立体视觉成像原理图
假设左摄像机安装在世界坐标系o xyz -的坐标原点处,无任何旋转,其图像坐标系设为l l l O X Y -,l f 为其有效焦距;右摄像机的坐标系为r r r r o x y z -,其图像坐标系为r r r O X Y -,
r f 为其有效焦距,根据透视投影变换原理有公式(2.3)和(2.4):
2 双目立体视觉理论与障碍物检测系统设计
00001001l l
l l l X f x s Y f y z ⎡⎤⎡⎤⎡⎤
⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦⎣⎦ (2.3) 000010
1r r
r r r r r r X f x s Y f y z ⎡⎤⎡⎤⎡⎤⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦⎣⎦⎣⎦
(2.4) 其中,o xyz -坐标系和r r r r o x y z -坐标系两者之间的相互位置,我们可以利用空间转换矩阵lr M 表示成式(2.5):
1234
5678
9
11r x r lr y r z x x x r r r t y y y M r
r r t z z z r r r t ⎡⎤
⎡⎤⎡⎤⎡⎤⎢⎥⎢⎥
⎢⎥⎢⎥⎢⎥⎢⎥==⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦⎣
⎦⎣⎦
⎣⎦
(2.5) 上式中,[|]lr M R T =,且R 和T 分别表示左右摄像机坐标系之间的旋转矩阵和平移向量。

由式(2.3)~(2.5)可知位于o xyz -坐标系中的空间点P ,在两个摄像机像平面上的投影点间的对应关系可以表示为式(2.6):
234567
8
9
//11l l r
r r r x l l r r r r r y r z zX f xr f f r f r f t zY f p yr f r f r f r f t z r r r f t ⎡⎤
⎡⎤⎡⎤⎢⎥⎢⎥⎢⎥⎢
⎥=⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥⎢⎥
⎣⎦⎣⎦⎣⎦
(2.6) 对公式(2.6)进一步求解可得式(2.7):
78912137894516//()()()()()()
l l l l l r x r z r l l l r l l l r y r z r l l l r l l x zX f y zY f f f t X t Z X r X r Y f r f r X r Y f r f f t Y t Y r X r Y f r f r X r Y f r =⎧
⎪=⎪⎪-⎪=

++-++⎪⎪-=⎪++-++⎪⎩ (2.7) 由式(2.7)可知,若已知有效焦距l f 和r f ,同时空间点P 在左右两个摄像机平面的投影点的像素坐标已知,并且求出旋转矩阵R 与平移矩阵T ,就能够求出点P 的三维坐标。

通过对以上两种双目立体视觉模型的分析可知,相比于横向汇聚式双目立体视觉模型,横向平行式双目立体视觉模型,结构简单,计算简单,测量范围广。

并且由于实验条件有一定的限制,因此本文选择横向平行式双目立体视觉模型进行平台搭建。

2.2 摄像机成像模型
摄像机的投影模型主要有三种:透视投影模型(即小孔成像模型)、正交投影模型和
西安工业大学硕士学位论文
拟透视投影模型。

目前,使用最广泛的投影模型为:针孔成像模型。

在线性模型中,通常把摄像机的镜头看作“针孔”,但是,真正的镜头是由透镜组成的复杂的光学系统,线性模型不能准确的描述物体的成像关系,随着图片中心距离的加大,,镜头的畸变越严重[30]。

为了准确的描述实际摄像机镜头,有必要进行非线性补偿或者修正。

在摄像机成像过程中,通常会有一系列坐标系的相互转换,下面,首先将依次介绍四个坐标系以及两种成像模型的基本概念和理论。

2.2.1 摄像机成像模型中的坐标系
摄像机成像模型中的坐标系主要有:摄像机坐标系、世界坐标系(参考坐标系)图像物理坐标系和图像像素坐标系[31]。

其中图像坐标系如图2.3所示:
图2.3 图像坐标系
上图中1o xy -为平面坐标系,其中1o 为主点,坐标为00(,)u v ,它是摄像机光轴和像平面的交点。

主点通常由于镜头的制造误差会偏离图像的中心点。

0o uv -是像素坐标系,它代表数字图像在计算机中的存储形式。

其中u 与x 平行,v 与y 平行,则两个坐标系之间的关系可以用如下公式(2.8)和(2.9)表示:
0/u x dx u =+ (2.8)
0/v y dy v =+ (2.9)
用齐次坐标和矩阵表示为式(2.10):
0010
10110
01u dx u x v v y
dy ⎡⎤⎡⎤⎡⎤
⎢⎥⎢⎥⎢⎥⎢⎥=⎢⎥⎢⎥
⎢⎥⎢⎥⎢⎥
⎢⎥⎣⎦⎣⎦

⎦ (2.10) 上式中(,)u v 为00(,)u v 在0o uv -中的投影点,dx 和dy 分别为x 轴和y 轴方向上单位像素的尺寸。

图2.4表示相机坐标系和世界坐标系的转换关系:。

相关文档
最新文档