多传感器融合的智能车定位导航系统设计

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

多传感器融合的智能车定位导航系统设计
李磊;肖世德;李兴坤;董庆丰
【摘要】车辆定位导航系统实时、准确获取车辆位置对实现智能驾驶具有重要意义.针对传统定位导航系统存在的精度低、成本高、鲁棒性差等问题,基于
GPS/INS(global positioning system/inertial navigation system,全球定位系统/惯性导航系统)、机器视觉和超声波雷达技术,设计了一种多传感器融合的智能车定位导航系统,旨在实现智能车在简单、结构化道路环境下的自动驾驶.利用
GPS/INS技术实现智能车地理坐标获取,利用机器视觉技术实现智能车前方车道线检测,利用超声波雷达技术实现道路边沿检测,并对地理坐标、车道线和道路边沿数据进行深度融合,实现车道级定位导航.最后,进行了智能车定位导航现场测试,结果表明该系统满足车道级定位导航性能要求.研究结果表明,在简单、结构化道路环境下,多传感器融合的智能车定位导航系统结构简单,实际运行状况良好,可极大提高定位导航精度.
【期刊名称】《工程设计学报》
【年(卷),期】2019(026)002
【总页数】8页(P182-189)
【关键词】定位导航系统;智能车;多传感器融合;车道线检测;道路边沿检测
【作者】李磊;肖世德;李兴坤;董庆丰
【作者单位】西南交通大学机械工程学院,四川成都610031;西南交通大学机械工程学院,四川成都610031;西南交通大学机械工程学院,四川成都610031;西南交通大学机械工程学院,四川成都610031
【正文语种】中文
【中图分类】U495
智能化车辆具有减轻驾驶员工作量、提高通行效率和提高交通安全性等多方面优势[1]。

近年来,飞速发展的高精度传感器、智能算法和计算能力,为智能车研究打下了坚实的基础,使智能车商业化成为可能。

智能车能够在非人为干预情况下自主、安全抵达目的地,其中定位导航技术是实现智能行驶的核心。

传统定位导航系统包括GPS/INS、差分GPS和GPS/INS/激光雷达定位导航系统等。

GPS/INS存在定位精度随时间发散、难以精确校准的问题;差分GPS性能优于GPS/INS,但其定位精度受差分基准站位置、数量等因素影响较大;GPS/INS/激光雷达定位导航系统的性能最优,但激光雷达存在数据交换量大,软、硬件成本高等问题[2-5]。

针对GPS/INS存在的精度低、成本高、鲁棒性差等问题,本文基于GPS/INS、机器视觉和超声波雷达技术,设计了一种多传感器融合的智能车定位导航系统。

首先进行多传感器融合的智能车定位导航系统的总体架构设计,然后依次进行定位导航系统的硬件和软件设计,最后通过现场测试来验证多传感器融合的智能车定位导航系统的可行性。

1 多传感器融合的定位导航系统的总体架构
多传感器融合的智能车定位导航系统为由车载电脑和电控系统共同构成的双核心架构,车载电脑为双核心架构的上位机,电控系统为双核心架构的下位机,通过上下位机通信模块实现双核间通信。

整个系统按功能可细分为GPS/INS模块、视觉传感器模块、超声波模块和车辆运动控制模块这4个功能模块,其总体架构如图1所示。

图1 多传感器融合的智能车定位导航系统总体架构Fig.1 Overall architecture of intelligent vehicle positioning and navigation system based on MSF
在该定位导航系统中,车载电脑负责处理交换量大、计算能力要求高的数据,电控系统负责处理交换量小、实时性要求高的数据。

首先,利用GPS/INS模块获取智能车地理坐标,依据地理坐标在OSM(open street map,公开地图)数据中检索与之匹配的空间数据,提取当前道路的车道数量和车道宽度;然后,利用视觉传感器模块检测前方车道线,利用超声波模块检测道路边沿;最后,对车道线和道路边沿数据进行深度融合,实现车道级智能车定位导航。

2 多传感器融合的定位导航系统的硬件设计
常见的硬件系统按硬件结构可划分为单板卡结构和双板卡结构[6],本文所设计的多传感器融合的定位导航系统采用“核心板+母板”的双板卡结构,核心板与母板之间通过BTB(board to board,板对板)连接器实现连接。

在双板卡结构中,
核心板与母板均为双层PCB(printed circuit board,印刷电路板)线路板,该结构一方面具有4层PCB线路板体积小、质量轻和装配密度高等优势,另一方面能够
显著降低开发成本,增强系统的通用性、可维护性和可扩展性。

核心板是一块双层双面PCB线路板,它包括嵌入式处理器、外部存储器、时钟电路、电源电路、复
位电路、通信电路、下载电路和输入/输出接口,如图2所示。

图2 核心板硬件结构示意图Fig.2 Hardware structure diagram of core board
核心板的嵌入式处理器选用具有Cortex-M4内核的STM32F407ZGT6主控芯片,其工作主频高达168 MHz,芯片内集成1 024 kb Flash和192 kb SRAM (static random-access memory,静态随机存取存储器),内置硬件FPU (float point unit,浮点运算单元),支持DSP(digital signal processing,数字信号处理)指令集。

核心板的外部存储器选用IS62WV51216存储芯片,其容
量为1 Mb,挂载于FSMC(flexible static memory controller,可变静态存储
控制器)上,作主控芯片扩展内存。

核心板实物图如图3所示。

图3 核心板实物图Fig.3 Physical drawing of core board
母板是一块双层单面PCB线路板,它包括电源模块、超声波模块、GPS模块、INS模块、车辆运动控制模块和输入/输出接口,如图4所示。

图4 母板硬件结构示意图Fig.4 Hardware structure diagram of mother board 母板的GPS模块选用ZBT TG621S-BD芯片,INS模块选用MPU6050芯片,其中,ZBT TG621SBD是一款167通道、三模全球定位导航接收器,其定位精度为2.5 m,最高更新频率为1 Hz;MPU6050是一款高性能六轴运动处理传感器,其上集成三轴MEMS(micro-electro mechanical system,微机电系统)加速度计、三轴陀螺仪和数字运动处理器。

母板的超声波模块探头选用URM37传感器,URM37传感器自带微控制器,可极大地释放主控制器的软、硬件资源,4组URM37传感器分别平行布置于智能车左、右两侧。

母板的车辆运动控制模块集成了驱动、转向和刹车电机控制系统,可依照电控系统控制指令控制智能车执行相应动作。

母板实物图如图5所示,核心板与母板装配实物图如图6所示。

3 多传感器融合的定位导航系统的软件设计
3.1 基于机器视觉的车道线检测
机器视觉车道线检测算法可分为基于模板[7-9]、基于特征[10]和基于区域[11]的车道线检测算法,其中,基于模板的车道线检测算法抗噪性强、效果稳定、应用广,因此本文设计的系统采用基于模板的机器视觉车道线检测算法,该系统的视觉传感器主要性能参数如表1所示。

图5 母板实物图Fig.5 Physical drawing of mother board
图6 核心板与母板装配实物图Fig.6 Assembly physical drawing of core board and mother board
表1 视觉传感器主要性能参数Table 1 Key performance parameters of vision
sensor参数类型相机参数安装参数性能指标目数帧率分辨率俯仰角偏航角安装高
度量值单目10帧/s 640×480像素0°~45°0°1.5 m
所设计系统采用的基于模板的机器视觉车道线检测算法工作原理:1)相机标定,利用OpenCV标定库函数进行相机内、外参数标定[12],确定三维空间与二维图像的对应关系;2)逆透视变换,利用IPM(inverse perspective transform,逆
透视变换)算法求解逆透视变换矩阵H和反逆透视变换矩阵Hinv[13],建立世
界坐标系与图像坐标系的映射关系,获取IPM图像;3)图像预处理,对IPM图
像进行阈值化处理,剔除左、右边界,利用高斯滤波器对IPM图像进行平滑处理,利用形态学腐蚀消除“斑点”噪声,对降噪后图像再作阈值化处理,获取预处理图像;4)边缘检测,利用Canny算子将预处理图像各独立边拼接为轮廓;5)直线检测,利用PPHT(progressive probabilistic Hough transform,累计概率霍
夫变换)进行累加,提取边缘轮廓中的直线特征;6)曲线拟合,过滤、合并各直线掩码区,利用RANSAC(random sample consensus,随机抽样一致)算法
依次在每个掩码区内选取局内点[14],并进行贝塞尔曲线拟合[15],之后对
每个掩码区的拟合曲线进行评分,保留得分最高的样条曲线;7)图像后处理,在IPM图像上扩展保留的样条曲线,再次进行贝塞尔曲线拟合,对拟合后的样条曲
线特征点进行反逆透视变换,并将变换后样条曲线融合到原始图像上,最后对转换后曲线进行匹配,剔除变换过程中产生的噪声,获取后处理图像。

基于模板的机器视觉车道线检测算法流程如图7所示。

图7 基于模板的机器视觉车道线检测算法流程Fig.7 Flow of lane line detection algorithm based on template-based machine vision
基于模板的车道线检测算法中部分关键参数如下:图像预处理部分高斯滤波器采用非对称高斯核,垂直方向上Sigma(即标准差)值取5,水平方向Sigma值取7;直线检测部分利用PPHT的累加阈值取75;图像后处理部分曲线扩展角度阈值系
数取0.7。

基于模板的机器视觉车道线检测结果如图8所示。

针对简单、结构化道路环境,本文设计的定位导航系统的车道线检测算法能够有效提取输入图像中的车道线特征,但存在部分特征误检问题,如图8(f)后处理图
像中左侧道路边沿存在误检。

在简单、结构化道路系统中,车道内部环境相对简单,环境干扰因素大多来自于车道外部。

若能够获取道路边沿数据,并与车道线检测数据融合,可有效滤除环境干扰因素引起的误检。

图8 基于模板的机器视觉车道线检测结果Fig.8 Result of lane line detection based on template-based machine vision
3.2 基于超声波雷达的道路边沿检测
按照相关规定,三级以上多车道公路每条车道宽度多为330~375 cm,小型轿车
宽度多为150~200 cm。

车辆定位导航系统对车辆横向定位精度的要求要远高于
纵向定位精度,且纵向定位误差可通过扩大跟车距离予以补偿,而横向定位误差则难以补偿[16-18]。

因此本文的定位导航系统设置4组超声波传感器,获取道路边沿数据,以提高横向定位精度。

同时,通过道路边沿数据与车道线检测数据融合来滤除车道外环境干扰。

4组超声波传感器平行布置于智能车左、右两侧,如图9所示。

图9 超声波传感器位置示意图Fig.9 Location diagram of ultrasonic sensor
超声波传感器采集的数据为传感器安装位置到道路边沿的距离,将采集的距离数据投影至道路平面可得左、右两组点集,两组点集均由“局内点”和“局外点”构成,“局内点”为适应当前道路边沿模型的距离数据,“局外点”为不能适应当前道路模型的距离数据。

在本模型中,产生“局外点”的因素主要包括超声波传感器误检和行人、车辆等引起的环境噪声两类。

“局外点”为道路边沿检测的噪声,须通过RANSAC算法滤除,具体工作流程:1)从数据点集中随机抽取2组数据作为样
本点;2)依据样本点计算模型参数,建立估计模型;3)用估计模型遍历所有数
据点,计算错误率,标记“局内点”;4)通过标记的“局内点”重新估计模型;5)以重新估计的模型遍历所有数据点,计算错误率,标记“局内点”;6)通过
重新标记的“局内点”与模型的错误率评估模型。

重复执行上述步骤,循环迭代至退出条件,结果如图10所示。

图10 基于RANSAC算法的道路边沿检测图Fig.10 Diagram of road edge detection based on RANSAC algorithm
通过RANSAC算法提取道路边沿特征后,利用阈值化方法解析道路边沿数据,即可确定当前车道与道路边沿的相对位置关系。

设当前车道i(i∈{1,2,3,4})中心与道路左边沿距离为DLi(i=1,2,3,4),当前车道中心与道路右边沿距
离为DRi(i=1,2,3,4),当前车道与道路边沿距离关系如图11所示。

图11 当前车道与道路边沿距离关系Fig.11 Distance relationship of current lane and road edge
图中 d1、d2、d3、d4依次为机动车道 1,2,3 和非机动车道4的宽度。

结合图中
距离关系,分别解析智能车单侧前、后超声波传感器采集的道路边沿距离差值,即可识别智能车是否存在变道倾向;结合图11中左、右道路边沿对应关系,解析道路边沿距离数据,即可确定智能车当前车道信息。

3.3 多传感器数据融合
本文设计的定位导航系统的多传感器数据融合是指GPS/INS定位数据、OSM数据、车道线检测数据和道路边沿检测数据的融合,主要包含2个方面:一是
GPS/INS数据与OSM数据匹配,二是车道线检测数据与道路边沿检测数据匹配。

OSM数据可分为空间数据和属性数据两类,其中,空间数据主要由点(nodes)、路(ways)和关系(relation)3种元素构成[19]。

GPS/INS数据与OSM数
据匹配的工作原理为:首先,通过GPS/INS模块获取经、纬度和高程坐标数据;然后,在OSM数据中检索与定位数据匹配的空间数据,提取当前道路的车道数量
和车道宽度。

本文设计的定位导航系统中车道线检测数据以像素坐标系Op-UV为测量基准,道路边沿检测数据以世界坐标系Ow-XwYwZw为测量基准,像素坐标系OPUV与
世界坐标系Ow-XwYwZw可通过相机坐标系Oc-XcYcZc建立转换关系,如图12所示。

图12 不同坐标系间的转换关系Fig.12 Conversion relationship between different coordinate systems
在世界坐标系下,视觉传感器所检测到的某点P的坐标为(xw,yw,zw),该
点在对应的相机坐标系中的坐标为(xc,yc,zc),在对应的像素坐标系中的坐
标为(up,vp)。

P点由世界坐标系到像素坐标系的坐标变换过程如下:
第1步,P点由世界坐标系到相机坐标系的坐标变换如式(1)所示。

式中:t为3×1的平移矢量,是世界坐标系原点Ow在相机坐标系中的坐标;R
为3×3的旋转矩阵,是相机光轴绕世界坐标系Xw、Yw和Zw轴旋转角度φ、θ、ψ的方向余弦总乘积[20]。

本文定位导航系统的相机安装于智能车顶部中央,世界坐标系原点Ow位于相机
正下方道路平面上,相机坐标系原点Oc位于相机质心,因此,t=[0 1.061
1.061]T,φ=135°,θ=0°,ψ=0°。

第2步,P点由相机坐标系到像素坐标系的坐标变换,如式(2)所示。

式中:α、β、uo、vo为相机内参数;α为相机宽度方向焦距参数,β为相机高度方向焦距参数;( )uo,vo为像素坐标系的主光轴点的坐标,多为图像中心,表示相机光轴在像素坐标系中的偏移量,以像素为单位。

相机所拍摄的图像遵循透视规律,即被测物体的宽度和高度随相机与物体间距离变化而变化。

相机内参数可在相机标定时计算得出,本文所选相机标定后获取的相机内参数如下:α=785.732像素,β=785.687像素,( )uo,vo=(315.367,272.297)像素。

在进行车道线检测数据与道路边沿检测数据匹配时,先对道路边沿检测数据进行坐标变换,将道路边沿检测数据投影为世界坐标系中道路平面上的点,然后将车道线检测IPM图像中特征点数据由像素坐标系映射到世界坐标系,之后融合道路边沿数据和车道线数据,滤除车道外部环境干扰因素,提高车道线检测准确性。

4 定位导航实验与结果分析
4.1 定位导航系统实验平台设计
多传感器融合的智能车定位导航系统实验平台分为FZ-01实验台和JD-3智能车两部分。

具体工作流程如下:先按照系统实际性能需求搭建FZ-01实验台,并在实验台上进行模拟实验,完成定位导航系统软、硬件联合调试;待软、硬件联调完成后,将软、硬件系统移到JD-3智能车上,进行实车调试。

多传感器融合的智能车定位导航系统实验平台如图13所示。

图13 多传感器融合的智能车定位导航系统实验平台Fig.13 Experimental platform of intelligent vehicle positioning and navigation system based on MSF
4.2 定位导航实验结果分析
多传感器融合的智能车定位导航系统软、硬件测试实验过程如下:首先,依据GPS/INS模块获取的智能车当前经、纬度和高程坐标在OSM数据中检索匹配的道路信息,并提取当前道路的车道数量和车道宽度;然后,将提取的道路信息作为道路边沿检测部分的输入项,识别智能车当前所处车道信息;最后,将道路边沿检测数据与车道线检测数据融合,实现车辆定位导航。

在车道线与道路边沿检测数据匹配时,以世界坐标系为基准,将道路边沿检测数据投影至世界坐标系。

在对原始图像进行逆透视变换时,所选取地面特征点均以Ow 为原点,测量它们在世界坐标系下的坐标,最后以道路边沿点数据作直线,用阈值化方法建立滤波边界,并将边界外侧像素清零,滤除车道外部环境干扰。

滤波前后车道线检测结果对比如图14所示。

图14 滤波前后车道线检测结果Fig.14 Detection result of lane line before and after filtering
分析图14车道线检测结果可知,图14(a)滤波前预处理图像左上角和右上角存在部分车道受外部环境干扰,其中:左上角部分范围小、线性弱,可通过车道线检测算法滤除,不会对车道线检测产生干扰;右上角部分范围大、线性强,无法通过车道线检测算法滤除,会引起车道线误检,如图14(c)所示。

在引入道路边沿检测数据,并结合车道宽度数据设置阈值作滤波边界后,显著减少了车道外部环境干扰,图14(a)和图14(c)中左上角和右上角大部分干扰像素被滤除,仅残留部分滤波边界内的散点干扰像素,不会对车道线检测产生影响,如图14(b)和14(d)所示。

实验结果表明车道线检测数据与道路边沿检测数据融合后,能够有效减少车道外部环境干扰,可提高车道线检测准确性。

软、硬件联调结束后,开始选取测试路径,准备进行道路测试。

本文所设计的智能车定位导航系统主要针对简单、结构化道路环境,因此选取一段校园道路进行测试,如图15所示,图中黑色轨迹线为所选取的测试路径。

图15 定位导航实验测试路径Fig.15 Diagram of test path for positioning and navigation experiment
本文所采集的数据集取自一段简单、结构化道路,数据的真值和测试值均通过定距人工标注法获得。

在测试开始前,采用人工标注方式在测试路径上等间距处设置真值锚点;之后进行道路测试,采用人工标注的方式在测试路径上等间距处采集测试
锚点数据;最后将所采集的测试锚点数据与真值锚点数据进行对比分析,对智能车定位导航系统性能指标进行验证。

本次测试在一段双向单车道上进行,共设置150个测试锚点。

测试道路的非机动
车道宽度为230 cm,机动车道宽度为300 cm,具备完整的道路边沿特征。

测试
结果如图16所示。

其中,真值锚点数据数据为当前行驶车道中心到右侧道路边沿的距离。

图16 多传感器融合的智能车定位导航系统测试结果Fig.16 Test result of intelligent vehicle positioning and navigation system based on MSF
分析图16的测试结果易得:1)测试锚点数据与真值锚点数据的差值在-30~30 cm的阈值范围内随机波动,表明多传感器融合的定位导航系统的性能相对稳定,优于传统GPS/INS组合定位导航系统的米级精度;2)测试曲线后半部分波动幅
度明显高于前半部分波动幅度,且大部分测试锚点数据的值大于真值锚点数据的值,表明进入弯道后智能车行驶轨迹更靠近车道分界线,且在进行入弯方向修正时存在迟滞现象,导致数据波动幅度明显变大。

测试结果表明智能车实际运行过程相对平稳,可基本实现简单、结构化道路环境下自动驾驶。

5 结束语
针对传统定位导航系统存在的精度低、成本高、鲁棒性差等问题,从实际需求出发,设计了一种多传感器融合的智能车定位导航系统。

首先进行多传感器融合的智能车定位导航系统的总体架构设计,然后进行导航系统的硬件和软件设计,最后对系统进行实验分析,分析结果验证了多传感器融合的智能车定位导航系统设计的合理性,满足设计要求。

参考文献:
【相关文献】
[1]FAOUZI N E E,LEUNG H,KURIAN A.Data fusion in intelligent transportation systems:progress and challenge-A survey[J].Information Fusion,2010,12(1):4-10.doi:10.1016/j.inffus.2010.06.001
[2]曾庆喜,冯玉朋,杜金枝,等.融合视觉的智能车组合导航技术分析[J].导航定位学报,2017,5(2):1-6.doi:10.3969/j.issn.2095-4999.2017.02.001 ZENG Qing-xi,FENG Yu-peng,DU Jin-zhi,et al.Analysis on integrated navigation technology for intelligent vehicles by integrating vision[J].Journal of Navigation and Positioning,2017,5(2):1-6.
[3]石慧.基于多传感器融合的车辆导航系统研究与实现[D].北京:北京工业大学城市交通学院,2016:7-10.SHI Hui.The research and implementation of vehicle navigation system based on multi-sensor fusion[D].Beijing:Beijing University of Technology,College of Metropolitan Transportation,2016:7-10.
[4]姜岩,赵熙俊,龚建伟,等.简单城市环境下地面无人驾驶系统的设计研究[J].机械工程学报,2012,48(20):106-115.doi:10.3901/JME.2012.20.103 JIANG Yan,ZHAO Xi-jun,GONG Jian-wei,et al.System design of self-driving in simplified urban environments [J].Journal of Mechanical Engineering,2012,48(20):106-115.
[5] HILLEL A B,LERNER R,DAN L,et al.Recent progress in road and lane detection:
a survey[J].Machine Vision&Applications,2014,25(3):727-745.doi:
10.1007/s00138-011-0404-2
[6]郭俊杰.无人驾驶车GPS自主导航系统设计与实现[D].西安:长安大学汽车学院,2014:
2-17.GUO Jun-jie.GPS navigation system design and implementation for driverless smart vehicles[D].Xi’an:Chang’an University,School ofAutomobile,2014:2-17.
[7]WANG Y,TEOH E K,SHEN ne detection and tracking using B-Snake
[J].Image&Vision Computing,2003,22(4):269-280.doi:
10.1016/j.imavis.2003.10.003
[8]叶美松.单目视觉的智能电动小车车道线识别与跟踪[D].成都:西南交通大学机械工程学院,2017:2-15.YE ne recognition and tracking of intelligent electric vehicle based on monocular vision[D].Chengdu:Southwest Jiaotong University,School of Mechanical Engineering,2017:2-15.
[9]JUNG C R,KELBER C ne following and lane departure using a linear-parabolic model[J].Image&Vision Computing,2005,23(13):1192-1202.doi :
10.1016/j.imavis.2005.07.018
[10]王海,蔡英凤,林国余,等.基于方向可变Haar特征和双曲线模型的车道线检测方法[J].交通运输工程学报,2014,14(5):119-126.doi:10.3969/j.issn.1671-1637.2014.05.015 WANG Hai,CAI Ying-feng,LIN Guo-yu,et ne line detection method based on
orientation variance Haar feature and hyperbolic model[J].Journal of Traffic and Transportation Engineering,2014,14(5):119-126.
[11]鲁曼,蔡自兴,李仪.道路区域分割的车道线检测方法[J].智能系统学报,2010,5(6):505-509.doi:10.3969/j.issn.1673-4785.2010.06.007 LU Man,CAI Zi-xing,LI Yi.A lane detection method based on road segmentation[J].CAAI Transactions on Intelligent Systems,2010,5(6):505-509.
[12] KAEHLER A,BRADSKI G.Learning OpenCV 3:computer vision in C++with the OpenCV library[M].Sebastopol:O’Reilly Media Inc,2016:29-113.
[13]刘洪涛,蒋如意,胡文,等.基于路面垂直轮廓建模的一般路面逆透视变换[J].上海交通大学学报,2012,46(11):1770-1773.LIU Hong-tao,JIANG Ru-yi,HU Wen,et al.Inverse perspective mapping of general road based on vertical road profile modeling[J].Journal of Shanghai Jiaotong University,2012,46(11):1770-1773.
[14]SUN Qian,ZHANG Ya,WANG Jian-guo,et al.An improved fast feature extraction based on RANSAC method of vision/SINS integrated navigation system in GNSS-denied environments[J].Advances in Space Research,2017,60(12):2660-2671.doi:
10.1016/j.asr.2017.05.017
[15]侯长征.基于视觉的车道线检测技术研究[D].成都:西南交通大学信息科学与技术学院,2017:29-35.HOU Chang-zheng.Research on vision-based lane markings detection technology[D].Chengdu:Southwest Jiaotong University,School of Information Science and Technology,2017:29-35.
[16]曹立波,陈峥,颜凌波,等.基于RFID、视觉和UWB的车辆定位系统[J].汽车工程,2017,39(2):225-231.doi:CNKI:SUN:QCGC.0.2017-02-017 CAO Li-bo,CHEN Zheng,YAN Ling-bo,et al.Vehicle positioning system based on RFID,Vision and UWB [J].Automotive Engineering,2017,39(2):225-231.
[17]段建民,石慧,刘丹,等.无人驾驶智能车导航系统控制研究[J].计算机仿真,2016,33(2):198-203.doi:10.3969/j.issn.1006-9348.2016.02.042 DUAN Jian-min,SHI Hui,LIU Dan,et al.Research of navigation control system for unmanned intelligent vehicles [J].Computer Simulation,2016,33(2):198-203.
[18]赵翔,杨明,王春香,等.基于视觉和毫米波雷达的车道级定位方法[J].上海交通大学学报,2018,52(1):33-38.doi:10.16183/ki.jsjtu.2018.01.006 ZHAO Xiang,YANG Ming,WANG Chun-xiang,et al.A lane-level positioning method based on vision and millimeter wave radar[J].Journal of Shanghai Jiaotong University,2018,52(1):33-38.
[19]李龙.基于OSM的移动GIS系统的研究与实现[D].北京:北京邮电大学自动化学院,2016:6-8.LI Long.Research and implementation of the mobile GIS system based on OSM [D].Beijing:Beijing University of Posts and Telecommunications,School of Automation,2016:6-8.
[20]王晨学,平雪良,徐超.基于视觉辅助定位的机械臂运动学参数辨识研究[J].工程设计学报,
2018,25(1):27-34.doi:10.3785/j.issn.1006-754X.2018.01.004 WANG Chen-xue,PING Xue-liang,XU Chao.Research on the kinematic parameter identification of robot arm based on the assistant location by stereo vision[J].Chinese Journal of Engineering Design,2018,25(1):27-34.。

相关文档
最新文档