一种融合激光和深度视觉传感器的SLAM地图创建方法
激光雷达与视觉融合的SLAM算法研究

激光雷达与视觉融合的SLAM算法研究激光雷达与视觉融合的SLAM算法研究近年来,随着无人驾驶、机器人技术的迅速发展,同步定位与地图构建(Simultaneous Localization and Mapping,简称SLAM)成为一个热门的研究领域。
SLAM算法的目标是通过同时对环境进行感知和建模,实现机器人自主导航和定位,为其提供实时的地理位置信息。
目前,激光雷达和视觉传感器被广泛应用于SLAM算法中,而将这两种传感器融合在一起可以有效地提高定位和建图的精度和鲁棒性。
激光雷达是一种主动传感器,能够通过发送激光束并测量其反射返回的时间和方向,从而获取环境中物体的三维空间信息。
相比之下,视觉传感器是一种被动传感器,可以通过摄像头捕捉场景中的图像信息。
激光雷达的优势在于其高精度的深度测量能力,能够提供准确的地图数据。
而视觉传感器则具有广阔的视野和高分辨率的图像信息,能够提供丰富的环境感知数据。
激光雷达和视觉传感器的融合可以将它们各自的优势进行互补,从而提高SLAM算法的性能。
首先,融合后的SLAM算法可以更准确地获取地图的三维信息。
激光雷达提供了精确的深度信息,可以得到物体的三维位置和形状。
而视觉传感器能够识别物体的表面特征,并通过特征匹配进行建图。
通过将两种传感器的数据进行融合,可以获得更准确和完整的环境模型。
其次,激光雷达和视觉融合的SLAM算法可以提高定位的精度和鲁棒性。
视觉传感器的数据容易受到光照和杂乱背景的干扰,容易出现误匹配和漂移问题。
而激光雷达的数据不受环境的影响,可以提供稳定的定位信息。
通过将两种传感器的数据进行融合,可以消除它们各自的不足之处,提高定位的准确性和可靠性。
最后,激光雷达和视觉融合的SLAM算法还可以提高动态环境的感知能力。
激光雷达可以检测到动态物体并更新地图信息,但其无法提供物体的外观和运动信息。
视觉传感器能够提供物体的外观和运动信息,但对于动态物体的检测和跟踪存在一定的挑战。
融合激光与视觉点云信息的定位与建图方法

定位与建图是机器人和自动操作领域最重要的技术之一,在定量解决自动导航,机器人动态避障和搜索目标等问题时是很重要的一步。
凭借先进的融合激光与视觉点云信息的定位技术,可以轻松解决的机器人控制和自动操作中的机器定位和建图问题。
融合激光与视觉点云信息的定位和建图技术是一种利用定位技术和图像处理技术,进行数字图像处理和融合,从而实现定位和建图的高效技术。
它把多种传感器(激光雷达,视觉,匹配)的数据综合到一起分析,使机器人运动的定位效率更高,精度更高。
它结合视觉,激光扫描和其他传感器,可以将场景深入获取,获取更精准的地图信息,并能够在较低的计算量和计算能力的情况下实现更好的定位与地图建立,同时还支持动态环境。
其次,融合激光与视觉点云信息的定位和建图技术不仅可以有效降低设备量,而且可以获得更精确的定位。
定位和建图是建立机器人地图的基本设施,通过定位和建图的技术可以构建准确的机器人地图,可以为机器人提供良好的定位信息,帮助机器人快速定位,准确完成任务。
总之,融合激光与视觉点云信息的定位和建图技术可以有效实现定位和建图,为机器人操作提供准确的机器人地图,从而为机器人自动导航,动态环境推进等技术提供了有效支持并提高工作效率。
在机器人自动导航,动态环境等问题领域,融合激光与视觉点云信息的定位和建图技术表现出极大的效率和技术支持。
《基于激光和视觉融合的SLAM技术研究》

《基于激光和视觉融合的SLAM技术研究》一、引言随着机器人技术的快速发展,同时定位与地图构建(SLAM)技术已成为机器人领域的研究热点。
SLAM技术能够实现机器人在未知环境中的自主定位与地图构建,对于机器人的导航、路径规划以及环境感知等任务具有重要意义。
近年来,基于激光和视觉信息的SLAM技术因其在精确度和稳定性方面的优势而备受关注。
本文将针对基于激光和视觉融合的SLAM技术进行研究与分析。
二、激光与视觉信息在SLAM中的应用1. 激光SLAM技术激光SLAM技术主要通过激光雷达扫描周围环境,获取环境的距离信息,进而实现机器人的定位与地图构建。
激光雷达具有测量精度高、抗干扰能力强等优点,因此在室外大范围环境下的SLAM中应用广泛。
2. 视觉SLAM技术视觉SLAM技术则主要依靠摄像头获取周围环境的图像信息,通过图像处理与分析实现机器人的定位与地图构建。
视觉SLAM 技术具有成本低、信息丰富等优点,适用于室内等光照条件较好的环境。
三、激光与视觉融合的SLAM技术激光与视觉融合的SLAM技术将激光雷达与摄像头获取的信息进行融合,充分利用两者的优点,提高SLAM的精度和稳定性。
具体而言,激光雷达提供精确的距离信息,而摄像头则提供丰富的纹理信息,两者相互补充,可以提高机器人在复杂环境下的定位与地图构建能力。
四、基于激光和视觉融合的SLAM技术研究1. 信息融合方法在基于激光和视觉融合的SLAM技术中,信息融合方法至关重要。
目前常用的信息融合方法包括概率融合、特征融合等。
概率融合方法通过将激光和视觉信息转换为概率分布,实现信息的有效融合。
特征融合方法则通过提取激光和视觉信息的共同特征,实现信息的互补。
2. 地图构建方法在基于激光和视觉融合的SLAM技术中,地图构建方法也是关键。
常见的地图构建方法包括基于几何特征的地图构建方法和基于概率的地图构建方法。
几何特征地图构建方法通过提取环境中的几何特征,构建地图;概率地图构建方法则通过估计机器人位置的不确定性,构建概率地图。
一种融合视觉与激光的定位方法研究

工业技术 DOI:10.16660/ki.1674-098X.2018.27.095
科技创新导报 2018 NO.27
Science and Technology Innovation Herald
一种融合视觉与激光的定位方法研究
杜万和 (上海第二工业大学智能制造与控制工程学院 上海 201209)
AMCL(Adaptive Monte Carlo Localization,自适应蒙特 卡洛定位算法)算法改进了MCL(Monte Carlo Localization, 蒙特卡洛定位)算法,通过随机播撒粒子,在一定程度上解 决了蒙 特 卡洛算 法定位 过 程中遇 到 机 器人 绑 架 无 法 恢 复 的情况。但是当地图较大时,全局随机播撒粒子的收敛速 度会越来越慢。由于目前激光定位可达到的精度比视觉定 位要高,因此希望能够找到一种快速恢复激光定位能力的 方法。
考数据。 系统改进了AMCL的随机播撒粒子的过程,缩小 了播 撒范围,也 减 少了需 要 播 撒的粒子 数,能 够 提 高丢 失 后重新定位的速度。
2 系统实现
系统的运行要建立在实物的基础上,需要运动执行机 构、2 D 激 光 传 感 器、R G B - D 相 机。运 动 执 行机 构 要 实 现 水平面上的移动,移动过程中不能有大幅度的上下颠簸, 这 是由于 采用的是 2 D 激 光 传感 器,当发 生 颠 簸 或 者 地面 凹凸不平时,激光测距平面会发生倾斜,测到的数据不能 很 好地 反 应 实际的情况。2 D 激 光 传感 器 要与机 器人的运 动 机 构 实 现 刚 性 连 接,传 感 器 与 运 动 机 构 之 间不 会发 生 相对位移。RGB-D相机与2D激光传感器之间也要建立刚 性连接,保证生成的关键帧信息与激光构建的地图的一致 性。图2 是实现的物理系统,后续的实验将采用此设备进 行测试。 2.1 机器人底盘
激光视觉融合slam原理介绍

激光视觉融合slam原理介绍
激光视觉融合SLAM(Simultaneous Localization and Mapping)是一种利用激光和视觉传感器进行环境感知和自主导航的技术。
它可以同时实现机器人的定位和地图构建,适用于室内和室外环境。
激光传感器通过发射激光束并测量其返回时间和强度来获
取环境的深度信息,从而构建三维点云地图。
视觉传感器则通过摄像头捕捉环境的图像,并通过特征提取和匹配技术来获得相机的位姿信息。
激光视觉融合SLAM的原理是将激光和视觉传感器的数据进行融合,以实现更准确和鲁棒的定位和地图构建。
具体步骤如下:
1. 数据采集:机器人同时使用激光传感器和视觉传感器获取环境的深度和图像数据。
2. 特征提取与匹配:图像数据通过特征提取算法提取出关键点,然后通过特征描述子对关键点进行描述。
接着,将激光的扫描数据与图像中的特征进行匹配,以估计机器人在当前帧的位姿。
3. 建图:利用激光数据,根据当前帧的位姿信息,将扫描点云映射到已知的地图中,逐渐构建出三维地图。
4. 位姿估计:通过视觉数据的匹配结果和激光数据的地图匹配结果,结合传感器的运动模型,对机器人在当前帧的位姿进行估计。
5. 优化与更新:使用优化算法对位姿进行优化,以提高定位的准确性。
同时,不断更新地图以适应环境的变化。
通过不断的数据采集、特征提取与匹配、建图、位姿估计和优化与更新等步骤,激光视觉融合SLAM可以实现精确的环境感知和自主导航,为机器人在未知环境中的定位和路径规划提供支持。
一种激光雷达与视觉融合的同步定位及建图算法

一种激光雷达与视觉融合的同步定位及建图算法
张亦然;钱银森;宋春林
【期刊名称】《信息技术与信息化》
【年(卷),期】2022()12
【摘要】室内移动机器人自主导航依赖于同步定位及建图技术,激光雷达与相机作为主流传感器正在不断深入应用到机器人定位与建图,但是单一传感器存在的缺陷不可避免,视觉传感器采集环境特征信息丰富,但视野范围较窄,而且对环境变化较为敏感;三维激光雷达检测精度较高,但价格昂贵,不适合生产生活应用。
基于上述问题,提出了一种视觉与激光相融合的SLAM算法框架。
首先利用惯性测量单元IMU对RPLidar采集到的雷达数据进行畸变校正处理,同时将Astra Pro深度相机获取的三维数据映射到二维坐标系,通过扩展卡尔曼方法将激光数据与深度数据相融合,最终在实际环境下进行建图比较,获得了更加完整的地图,从而验证了该文算法的可靠性和有效性。
【总页数】4页(P5-8)
【作者】张亦然;钱银森;宋春林
【作者单位】同济大学电子与信息工程学院;同济大学中车捷运研究院
【正文语种】中文
【中图分类】TP2
【相关文献】
1.基于单目视觉的同时定位与建图算法研究综述
2.基于激光与视觉融合的车辆自主定位与建图算法
3.一种改进的地下车库弱纹理下智能汽车即时定位与建图算法
4.一种融合视觉与IMU的车载激光雷达建图与定位方法
5.基于滑动窗口优化的激光雷达惯性测量单元紧耦合同时定位与建图算法
因版权原因,仅展示原文概要,查看原文内容请购买。
一种融合激光与视觉传感器的栅格地图构建方法

一种融合激光与视觉传感器的栅格地图构建方法A Raster Map Constsuction Method Combining Laser and Visual Sensor曾键夏益民蔡锦炜方祺杨子林蔡奕峻(广东工业大学自动化学院,广东广州510006)摘要:针对单一的激光传感器在创建周围环境的地图时,不能对镂空障碍物进行有效建图,以及视觉传感器在无纹理的区域无法工作等问题,提出一种激光与视觉相结合的方法,以保证机器人在地图创建的过程中,能有效地对具有镂空障碍物或无纹理障碍物的环境进行建图。
以Gmapping-SLAM所得栅格地图为激光栅格地图,ORB-SLAM2算法提取到的三维点云数据通过3D-2D转换,得到视觉栅格地图,最后利用贝叶斯估计的方法对两幅栅格地图进行数据融合。
利用激光与视觉相结合的方法,能有效提高机器人对镂空环境以及无纹理区域进行地图创建的准确性,得到更能反映物理环境信息的栅格地图。
关键词:Gmapping-SLAM;ORB-SLAM;贝叶斯;栅格地图;数据融合Abstract:A visual sensor that cannot work in the area without texture,a method combining laser and vision is proposed to ensure that the robot can effectively map the environment with hollow obstacles or without textured obstacles in the process of map creation.In this paper,the grid map obtained by Gmapping-Slam is the laser grid map,and the3D point cloud data extracted by the ORB-SLAM2algorithm is mapped by3D-2D to the visual grid.Finally,the data fusion of two raster maps is carried out by using Bayesian estimation.By combining laser with vision,the robot can effectively improve the accuracy of map creation of hollow environment and non-textured area,and get raster map that can better reflect physical environment information.Keywords:Gmapping—Slam,ORB—Slam,Bayesian,grid map,data fusion机器人的同步定位和建图是使移动机器人实现真正自主活动的关键点,也是移动机器人研究中的一大热点,利用激光传感器对机器人进行地图创建和定位在目前在移动机器人研究中较为常用。
基于激光SLAM和视觉融合的变电站语义地图构建方法[发明专利]
![基于激光SLAM和视觉融合的变电站语义地图构建方法[发明专利]](https://img.taocdn.com/s3/m/8c142c17a22d7375a417866fb84ae45c3b35c206.png)
专利名称:基于激光SLAM和视觉融合的变电站语义地图构建方法
专利类型:发明专利
发明人:吴秋轩,周忠容,曾平良,田杨阳,毛万登,孟秦源,张波涛,袁少光,耿俊成,赵健,吕强,仲朝亮,罗艳斌
申请号:CN202210295464.4
申请日:20220324
公开号:CN114638909A
公开日:
20220617
专利内容由知识产权出版社提供
摘要:本发明公开了一种基于激光SLAM和视觉融合的变电站语义地图构建方法,包括如下步骤:S1‑1对深度相机进行内参标定以及激光雷达和相机的外参联合标定;S1‑2、对深度相机和激光雷达获取的数据进行同步预处理;S2‑1通过激光雷达采集的点云数据以及里程计信息进行运维环境的地图建模;S2‑2、获取深度相机的RGBD图像,通过深度学习进行目标识别,以及场景信息理解,获取其语义信息;S2‑3、进行坐标转换,将步骤S2‑2中识别的目标投影至栅格地图中,为变电站提供环境认知信息;S3、重复步骤S2,完成语义地图的构建。
采用上述技术方案,在建图过程中,对不同天气环境及光照条件适应性较高的优点,算法可有效去除激光运动畸变,提高建图的精度,减小累积误差。
申请人:杭州电子科技大学,国网河南省电力公司电力科学研究院,国家电网有限公司
地址:310018 浙江省杭州市钱塘区白杨街道2号大街1158号
国籍:CN
更多信息请下载全文后查看。
基于视觉SLAM的室内导航与地图构建技术

基于视觉SLAM的室内导航与地图构建技术概述基于视觉SLAM(Simultaneous Localization and Mapping)的室内导航与地图构建技术是一种利用视觉传感器获取并处理环境信息,实现室内导航和地图构建的技术。
该技术结合了定位和地图构建的功能,并广泛应用于机器人导航、虚拟现实和扩展现实等领域。
本文将介绍视觉SLAM的原理、方法和应用,以及该技术的优势和发展前景。
一、视觉SLAM的原理与方法1. 视觉SLAM的原理视觉SLAM是通过捕捉和处理相机的图像信息,实现对机器人在未知环境中的定位和地图构建。
其核心原理是通过提取图像中的特征点或特征描述子,并通过匹配这些特征点或特征描述子来实现机器人的定位和地图构建。
2. 视觉SLAM的方法视觉SLAM的方法主要包括特征点提取与匹配、姿态估计、地图构建和优化等步骤。
- 特征点提取与匹配:通过对相机图像进行特征点的提取和匹配,获取相邻帧之间的相对运动信息。
- 姿态估计:利用提取到的特征点和匹配信息,估计相邻帧之间的相对姿态,即相机的旋转和平移。
- 地图构建:根据估计得到的相机姿态和特征点的空间位置,建立三维地图。
- 优化:对地图进行优化,通过最小化重投影误差来优化相机姿态和地图。
二、视觉SLAM的应用领域1. 机器人导航视觉SLAM在机器人导航领域有广泛应用。
通过视觉SLAM技术,机器人可以在未知环境中自主导航,并构建准确的地图。
这使得机器人可以在室内环境中进行定位、避障和路径规划等操作,实现自主导航功能。
2. 虚拟现实与扩展现实视觉SLAM可以为虚拟现实和扩展现实提供准确的定位和地图信息。
通过将虚拟对象与真实环境进行对齐,用户可以在虚拟现实或扩展现实中与真实世界进行交互,增强用户体验。
3. 智能家居视觉SLAM技术在智能家居领域可以实现室内环境的智能感知和自主控制。
通过视觉SLAM技术,智能家居系统可以感知居住者的位置和姿态,并根据人体的位置信息来自动调整照明、空调等设备,提供个性化的居住体验。
基于激光雷达与视觉信息融合的SLAM方法

基于激光雷达与视觉信息融合的SLAM方法王光庭;曹凯;刘豪【摘要】单线激光雷达传感器的扫描范围是二维平面,在室内环境中,服务型移动机器人在进行同时定位和地图构建过程中,不在激光雷达扫描平面范围内的障碍物无法被识别,构建的地图中会缺少相应的环境信息.为了获取缺失的环境信息,通过改进粒子滤波Rao-Blackwellized的方法得到移动机器人位姿的估计,将Kinect获取的环境三维信息数据和激光雷达数据融合,使用载有ROS(机器人操作系统)的移动平台Turtlebot2在实际场景中进行实验.实验结果证明,使用融合后的数据信息能得到更加准确的建图和导航效果.【期刊名称】《山东理工大学学报(自然科学版)》【年(卷),期】2019(033)001【总页数】6页(P9-13,19)【关键词】同时定位和地图构建;数据融合;机器人操作系统;导航【作者】王光庭;曹凯;刘豪【作者单位】山东理工大学交通与车辆工程学院,山东淄博255049;山东理工大学交通与车辆工程学院,山东淄博255049;山东理工大学交通与车辆工程学院,山东淄博255049【正文语种】中文【中图分类】TP391.4同时定位和地图构建(SLAM)技术是机器人在未知的环境中完成跟踪、侦查、导航等任务的关键和基础[1]。
在实际的应用中,机器人在不同的环境中执行不同的任务,对传感器的选择也是不尽相同。
对于家庭服务型移动机器人选用单一的传感器会存在检测地图信息不全面、检测精度不够或是机器人定位误差太大等诸多问题[2-3]。
如果采用多线激光雷达能够解决此问题,但会大幅度提高成本,市面上,4线或8线激光雷达的价格就将近10万元,而单线激光雷达只有几千元。
为了降低成本,通过多传感器的融合技术能够使各廉价传感器测量的信息实现互补,能够极大地提高机器人SLAM系统的鲁棒性及自身定位与地图构建的精度。
本文提出一种融合单线激光雷达信息和视觉信息的方法,实现两种冗余信息的互补,以提高地图的精度,保证地图信息的完整性和移动机器人导航的实时性。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第33卷第10期2016萃1〇月计算机应用研究Application Research of ComputersVol. 33 No. 10Oct. 2016一种融合激光和深度视觉传感器的SLAM 地图创建方法$张毅,杜凡宇,罗元,熊艳(重庆邮电大学信息无障碍工程研发中心,重庆400065)摘要:针对移动机器人的不确定复杂环境,一般采用单一传感器进行同时定位和地图创建(S L A M )存在精度 较低,并且易受干扰、可靠性不足等问题,提出一种基于B a y e s 方法的激光传感器和R G B -D 传感器的信息融合S L A M方法。
利用B a y e s 方法通过概率启发式模型提取光束投影到栅格地图单元,充分利用激光与视觉信息中的冗余信息,提取一致性特征信息,并进行特征级的信息融合;在地图更新阶段,提出一种融合激光传感器和视 觉传感器的贝叶斯估计方法,对栅格地图进行更新。
在使用R 0S (移动机器人操作系统)的实验平台上的实验 表明,多传感器信息融合可以有效提高S L A M 的准确度和鲁棒性。
关键词:贝叶斯;地图创建;深度视觉;多传感器融合;导航中图分类号:T P 274文献标志码:A文章编号:1001-3695(2016)10-2970-03d o i : 10. 3969/j . is s n . 1001-3695.2016.10.022Map-building approach based on laser and depth visual sensor fusion SLAMZhang Y i ,Du F a n y u , Luo Y u a n , X io n g Y an(Engineering Research Center of Information Accessibility , Chongqing University of Posts & Telecommunications, Chongqing 400065 , China )Abstract : W hen robots locate themselves in com plex and u n certa in ty e n vironm ents , the sim ultaneous localiza tion and m apping(S L A M ) system w ith a single sensor is poor in accuracy and r e lia b ility ,and susceptible to the inte rfe re n ce . T h is paper presen ted a m ethod o f data fusion fo r laser and depth visual based on Bayesian estim ation S L A M , w hich were inte rpre ted by a pro b a b i lis tic h e u ristic m odel th a t abstracted the beam in to a ray casting to an occupied g rid c e ll and take fu ll advantage o f re d u n d a n ce , features info rm atio n o f consistency proposed and fu sio n . In order to update the occupancy g r id ,it a p plied the Bayesian estim a tio n m ethod to both sensor data arrays . E xperim ent based on ROS study shows th a t m u lti-senso r based on Beyesian yie ld s a sig n ific a n t im provem ent between accuracy and robustness about S L A M .Key words : B ayes ; m ap -b u ild in g ; depth v is io n ; m u lti-senso r fu s io n ; navigation 同时定位和地图创建(sim ultaneous lo ca liza tio n and m ap -p in g ,S LA M )是移动机器人在解决未知环境中的探索、侦查、导航等各项问题的基础和关键。
机器人根据自身携带的传感器 获取观测信息创建环境地图,同时根据部分已创建地图估计机 器人的位姿[1]。
自从S m k h 等人提出该问题的概率方法以来,S L A M广受关注,成为当前智能机器人研究的热点问题,被很多著名学者认为是实现真正全自主移动机器人的关键。
在实 际应用中,采用单一传感器存在漏检、检测精度不高、目标信噪 比较低等问题。
而多传感器融合系统采用多个传感器量测冗 余和互补信息,通过多源数据融合技术有效提升同时定位和地 图创建的观测区域、鲁棒性、容错性以及定位精度。
多传感器数据融合已经运用于机器人的许多方面,如地图 创建、定位、路径规划、探险、同时定位和地图创建。
文献[2 ~ 6 ]将多传感器融合得到的环境地图进行S L A M 研究,都取得了 较好的效果。
一旦创建了环境地图,分层架构的移动机器人将 会应用定位、路径规划、避障和控制等模块完成相应的功能,实 现机器人的完全自治。
其中,贝叶斯方法提供了传感器融合问题方面的一些基本方法,它也是数据融合方法的理论基础。
本 文采用改进的贝叶斯方法将新颖的R G B -D 深度视觉传感器数 据与激光传感器数据融合,建立机器人环境的合理不确定度模 型并进行地图的创建。
所采用的传感器概率模型为投影栅格 法。
最后本文通过实验验证其可行性,从而也表明通过多传感 器融合能够创建更可靠、更精确的地图。
1传感器模型微软X b 〇x 360 R G B -D 视觉传感器如图1所示。
它可以同时获得环境颜色信息(R G B )和深度信息(d e p th ),水平视角为 58。
,垂直视角为45。
,观测距离为0. 8 ~ 3. 5 m 。
H o k u y o 激光测 距仪(la s e r range fin d e r ,L R F )如图2所示。
其结构简单,扫描 速度快,且数据点密集、准确。
它的感知距离为0.1 ~30 m ,测 量精度为±3 m m ,容差为10 m 。
每秒可以进行40次270。
范围 内的扫描。
H o k u y o 激光测距仪和R G B -D视觉传感器的测量范围如图3所示。
激光测距仪测量范围明显比R G B -D 视觉传感器测收稿日期:2015-07-15;修回日期:2015-08-31基金项目:科技部国际合作资助项目(2010DFA12160);重庆市科技攻关资助项目(CSTC2010AA2055)作者简介:张毅(1965-),男,重庆潼南人,教授,博士,主要研究方向为机器人及应用、数据融合、信息无障碍技术;杜凡宇(1989-),男,四川南充人,硕士,主要研究方向为移动机器人自主导航(353861258@ q q.c o m );罗元(1972-),女,湖北宜昌人,教授,博士,主要研究方向为机器视觉、智 能信号处理;熊艳(1989-),女,贵州贵阳人,硕士,主要研究方向为移动机器人自主导航.暮:遭顯张毅,等:一种融合激光和深度视觉翁感器的SLAM :地图创建方法* 2971,BGBS f否图4融合流程框架当递推公式被转换为占据栅格结构图时,可以简化得到下面改进的融合公式:DO DO---------—-------- (S )其中:和i -圮分别代表先验地图的栅格占据和未被占据 单苑的先验概季代表鲁慼器能敏返据栅格幸_数据 状-翁条件概率;r 代_.—个搀感器测量康离《翁更薪估计 戀者逆像感器模型,的占掘栅格尊雜条件概率。
每个产象的梅格地M 包括撩始縠狍漉生菌和U 呼_局部 處_歸。
单元局部原始f f i 是不定量的评估栅格占据概率值。
在吏新烏部栅格图取,为不确愈度的有囊模型地圈单元分配一 个独f t 爾占据栅格概率值.&根据H 叶斯规卿奠審f 栅格地图& 实攝上,雇掴贝叶衡规则吏薪局部地图是更新全局地國的一部 分,新栅格地阌部分顺序瓚加去替换旧地图部分。
图5为栅格 地图:更新过程中的播遂形式名代表对间步骤。
M 5.概格地图遭:新过程式0)中的这种方隹被用于徵光与深度视貴義感器结构 翁栅格图_津,=每个玫粦的響格B 率:元用来#充占爆栅.爭元 的概率&翁¥两幅地圏中猶相同逢标将被融合,融合规则如表它们;主粟由距离雋感器前性质决定*同时述具有以下关系4P (〇\E ) =1 -P (〇\E )(6)P (0\E )=l -P i O l E }(7)在立,输(〇 I 幻_裏根据三藥:重建_验被重着定义,得到不确情度概率_型立体视;f e P ( 〇 I 茗)智检测的距 离■似成鼠比^ 一般认为是#(£:) =l _P (£) 5其中零个栅格 单元初始化值为P (珩=〇. ^从计算方面緣虑,一雜做法彝 使甩一个对数函数形式估计后验憐率,便于在计算时将乘法转 变成加舊瑪式i f F 'C l I O)P {Q \I )P C E )成立職P (〇)〇(E \0) =A (0IE )■ o (E )侧遞釋)傷州:p tmp m2.3改进的传感器栅格地图融合EUes [7'«在他的工作中提出过使甩贝叶斯递推公式4更新多攆感器融倉&®5观测:数振雜格斑P 融會流程框乘如图4所 示。
_器敢数据東着包搏倦惑赛檁型朽和績會它最近的概率估计存储值单元:〇这些数据引入了单元_ C ;,有关的状态附 加信息、,然后根据_前数据设置r , = U^)与递归贝叶斯规则轱合/得出新估计值尸&在初始化地图时C ;,;.概率相 等^_始化地國:栅袼单元先验概拿等于P :: = 1 - C -〇. 5v e goLRE "量截爾太,R G B -D 视觉抟感器测量膽是三维國像,而截光测距 仪只能惑测特食齒二维学赚以本太抽研究貧:的邊_测 量魏S :i :将商者相:结合,形成吏加宽爾梅嫌最菹围_圏2_XWc 360RGB -D 传感器.圈3Hokuyo 激光麵•繼姐2传感器数据融合方法2.1筒化的贝叶斯方法,w 叶..斯推_暴塞千a叶爾定_的条件逾蔚I I 概率備统I 十数赫融合鼻法,能够通过B 知向羞Z ,话计未知的n 维状态向董X 。