一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 201710731390.3
(22)申请日 2017.08.23
(71)申请人 武汉大学
地址 430072 湖北省武汉市武昌区珞珈山
武汉大学
(72)发明人 牛晓光 张逸昊 王嘉伟 王震 
张淳 杨青虎 王安康 
(74)专利代理机构 武汉科皓知识产权代理事务
所(特殊普通合伙) 42222
代理人 鲁力
(51)Int.Cl.
G08G 1/01(2006.01)
(54)发明名称
一种基于机器学习与深度学习的驾驶员身
份识别与驾驶状态监测方法
(57)摘要
本发明涉及一种基于机器学习与深度学习
的驾驶员身份识别与驾驶状态监测方法。

通过智
能手机传感器采集汽车的运动数据,识别车辆驾
驶元动作。

运用模糊模式识别将驾驶元动作序列
划分为驾驶操作。

然后结合道路交通信息以及摄
像设备通过计算机视觉技术识别出车辆行驶时
前方的障碍物以及拥挤情况,并划分出不同的驾
驶场景。

结合驾驶操作分别提取出统计学特征,
并组成特征向量作为深度神经网络的输入,通过
构建个人驾驶特征库并训练对应的深度神经网
络模型来识别驾驶员的身份。

在确认了驾驶员的
身份之后,通过递归神经网络来识别驾驶员各时
刻的驾驶状态。

本发明采用多信源数据,基于驾
驶操作与场景,利用深度学习的方法,
提高识别
准确率。

权利要求书5页 说明书17页 附图8页CN 107492251 A 2017.12.19
C N 107492251
A
1.一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,其特征在于,包括以下步骤:
步骤1:利用手机内置的加速度计、陀螺仪以及方向传感器以不小于30HZ的频率来采集驾驶员的车辆驾驶数据,并进行预处理工作;
步骤2:利用阈值判别法根据采集到的传感器数据识别出每一时刻车辆的运动状态,即驾驶元动作;
步骤3:根据识别的车辆驾驶元动作序列基于模糊识别结合标准动作库划分驾驶操作;
步骤4:结合道路交通信息以及摄像设备基于计算机视觉技术识别出车辆行驶时前方的障碍物以及拥挤情况,并划分出不同的驾驶场景;
步骤5:以驾驶场景和驾驶操作为分类依据,分别提取该类别的数字信号统计学特征,作为深度神经网络的输入,对于每个驾驶员构建相应的个人驾驶特征库并训练对应的深度神经网络模型来识别驾驶员的身份;
步骤6:在识别出驾驶员的身份之后,通过构建相应的递归神经网络来识别驾驶员各时刻的驾驶状态。

2.根据权利要求1所述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,其特征在于,步骤1中所述的利用手机内置的加速度计、陀螺仪以及方向传感器以不小于30HZ的频率来采集驾驶员的车辆驾驶数据,其具体实现包括以下子步骤:步骤1.1:在t时刻通过手机内置的加速度计、陀螺仪以及方向传感器采集到的九轴传感器数据分别为:加速度计x,y,z轴数据a x,a y,a z,陀螺仪x,y,z轴数据g x,g y,g z,方向传感器x,y,z轴数据o x,o y,o z;
步骤1.2:使用卡尔曼滤波器对所有原始数据进行滤波,离散卡尔曼滤波算法主要包括两个部分,时间更新预测以及状态更新校正;其中时间更新预测是指利用当前时刻的信号值和其对应的误差协方差对下一时刻的状态进行先验估计;状态更新校正是指利用时间更新预测所得的先验估计和实际信号值得到改进后的下一时刻的后验估计;
下式表示离散时间信号x的离散随机差分方程:
x k=Ax k-1+Bu k-1+ωk-1
ωk表示估计离散事件过程中的激励噪声,是正态分布的白色噪声,p(ω)~N(0,Q);时间更新预测过程如下:
P k-=AP k-1A T+Q
其中x k-表示先验估计,P k-表示协方差估计:
状态更新校正过程如下,先计算卡尔曼增益K k,矩阵H表示状态信号对测量信号的增益:K k=P k-H T(HP k-H T+R)-1
下式表示状态的后验估计:
下式表示估计状态的后验协方差:
P k=(I-K k H)P k-
以上卡尔曼滤波方程重复计算,上一时刻计算得到的值作为下一时刻计算的先验估
计,而当前时刻的信号值和先验估计又用来计算当前时刻的后验估计;
步骤1.3:对加速度计z轴数据进行坐标校正,定义A z为校正后的加速度计z轴数据,坐标校正公式如下,其中方向传感器x,y,z轴数据为o x,o y,o z:
A z=a x sino z sino y+a y sino y sino z+a z coso z coso y
步骤1.4数据归一化采用离差标准化法,对原始数据进行线性变换,将所有的原始数据映射在[T1,T2]的目标区间中,消除量纲对于车辆驾驶员身份及驾驶状态识别的影响;
定义需要进行归一化的数据集为D={Di|0<=i<=m},其中m为数据集中的数据个数;归一化后的数据的计算公式如下所示:
其中,max(D)和min(D)分别为数据集D中的最大值和最小值,T2和T1分别为需要映射到的目标区间的上下界限;结合加速度、陀螺仪以及方向传感器的物理原理,目标映射区间取值为[-1,1]。

3.根据权利要求1所述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,其特征在于,步骤2中利用阈值判别法根据采集到的传感器数据识别出每一时刻车辆的驾驶元动作,驾驶元动作包括静止、加速、减速、匀速、上坡、下坡、平地行驶、左打方向盘、右打方向盘、直线行驶这10种,定义在t时刻通过手机内置的加速度计、陀螺仪以及方向传感器采集到的九轴传感器数据经过预处理后的数据分别为:加速度计x,y,z轴数据A x, A y,A z,陀螺仪x,y,z轴数据G x,G y,G z,方向传感器x,y,z轴数据O x,O y,O z;判别驾驶元动作包括以下判断状态:
判断状态一:通过方向传感器的y轴俯仰角数据来判断车辆的上下坡情况,若O y>0+ΔO y0,则说明车辆正在下坡,相反,若O y<0-ΔO y0,则说明车辆正在上坡,若-ΔO y0<O y<ΔO y0,说明车辆基本在平地上行驶;
判断状态二:通过陀螺仪的z轴水平方向的运动角速度数据来判断车辆的左右转弯情况,若G z>0+ΔG z0,则说明车辆的方向盘正向右打,相反,若G z<0-ΔG z0,则说明车辆方向盘正向左打,若-ΔG z0<G z<ΔG z0,说明车辆基本正在保持直线行驶;
判断状态三:判断车辆的加速与减速状态需要知道车辆是否在上下坡,然后结合加速度计y轴车辆前进方向的加速度数据来进行判断;首先通过车辆上下坡情况来对加速度y轴数据进行修正,消除重力的影响:
之后根据修正后的加速度计y轴数据A y’来判断车辆的加速与减速情况;若A y’>0+ΔA y0,则说明车辆正在加速行驶,相反,若A y’<0-ΔA y0,则说明车辆正向减速行驶,若-ΔA y0<A y’<ΔA y0,说明车辆基本正在保持匀速行驶;
判断状态四:结合GPS与OBD获取的车辆速度数据来判断车辆是否启动,即是否处于静止状态。

4.根据权利要求1所述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态
监测方法,其特征在于,步骤3中采用基于标准动作库的模糊识别算法来将驾驶元动作序列划分驾驶操作;预设的驾驶操作为起步、左转弯、右转弯、掉头、变道、停车这六大驾驶操作;每一个标准的驾驶操作都是由一系列的驾驶元动作向量构成的;在采用有序的模糊集表示操作模式类的情况下,一个操作过程表示为由若干个动作排列而成的动作序列,所以模式识别的问题就变成对这个动作序列里的元素在各模式类中进行分配和对动作序列进行正确分割的问题;定义:
定义1、操作过程中共有m种基本动作,则由这m种基本动作可以构成基本动作集合U;因此任何一个复杂操作可成为由U中部分或全部元素按照一定的排列次序构成的长度有限的动作序列X j,j=1,2,3…n;
定义2、当出现操作错误时,X j中各基本动作的名称、次序、数量和动作间的时间间隔均可发生不同程度的改变;在一点范围内,这些具有不用错误形式的操作与ωj一起构成第j 个操作模式类,记为O j;ωj为O j的标准样板,而其他操作为O j中的非标准模式;
定义3、驾驶动作的标准库为:
O起步={[*,straight,static],[*,*,accelerating],…,[*,*,accelerating],[*, straight,*-static]},
O左转弯={[*,straight,*-static],[*,left,*],…,[*,left,*],[*,straight,*]},O右转弯={[*,straight,*],[*,right,*],…,[*,right,*],[*,straight,*]},
O变道={[*,straight,*-static],[*,left,*],…,[*,left,*],[*,straight, accelerating],…,[*,straight,accelerating],[*-static,straight,*]},O停车={[*, straight,*-static],[*,*,accelerating],…,[*,*,accelerating],[*,straight, static]}
其中,符号*代表任意状态,-表示不包括后面的状态,
划分驾驶操作的步骤具体包括:
步骤3.1:首先找到驾驶元动作向量序列中每一对与标准驾驶操作库中匹配的开始与结束的驾驶元动作向量对X l’,这一步骤采用简单的字符串匹配算法即可;
步骤3.2:对于每一个驾驶元动作向量对X l’中的驾驶元动作向量a i,计算其对应的驾驶操作标准库的成员函数μOj(a j)(0<j<7),公式为:
其中n是X l’中的驾驶元动作向量的个数,p ai是标准驾驶动作库中a i之前的驾驶元动作向量的个数,q ai是标准驾驶动作库中a i之后的驾驶元动作向量的个数.a exist表示a i是否在标准驾驶动作库O j中,是的话,a exist=1,否则a exist=0.5,表示不知道;
步骤3.3:对于每一个标准动作库,将序列中所有的μOj(a j)相乘,得到一个最终的概率,比较所有动作库的最终概率,最大的即是匹配出来的驾驶操作。

5.根据权利要求1所述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,其特征在于,步骤4中通过道路交通信息以及计算机视觉技术来识别驾驶场景;通过三个属性来描述驾驶场景:障碍情况,道路等级以及拥挤程度;所述道路交通信息来源采用百度地图的SDK信息来源、或高德地图的SDK信息来源、或任意一现有地图提供商能够提供的SDK信息来源;
步骤4.1首先判断车辆前方的障碍情况,将车辆前方视野分为左中右三大块区域,每块区域单独判断是否存在障碍物;根据行车记录仪等摄像设备拍摄的实时行驶视频数据作为来源,使用计算机视觉方面的技术来识别这三大区域是否存在障碍物,若存在则用1表示,不存在,则用0来表示;根据左中右的顺序,可以用一个三元组[left,middle,right]来表示车辆前方的障碍物情况:定义[0,1,0]表示车辆前方左右两侧无障碍物,中间正前方区域有障碍物;
步骤4.2通过SDK的函数接口获得车辆目前正在行驶路段的具体道路等级;道路等级划分为三级:高速路、普通城市道路以及其他道路类型;其中城市的快速路也被划分为高速路这一等级;
步骤4.3通过SDK的函数接口获得车辆目前正在行驶路段的拥挤程度,拥挤程度划分为三级:重度拥堵、拥堵以及交通通畅;
步骤4.4将这三大属性结合起来组成一个驾驶场景描述向量Scene=[obstacle,road-type,congestion-degree],再将该驾驶场景描述向量与驾驶操作结合起来,就组成了一个用来全面描述车辆驾驶情景的分类O operation(Scene),该分类将用于下一步骤的驾驶员身份识别的神经网络构建中。

6.根据权利要求1所述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,其特征在于,步骤5基于一个两层的人工神经网络深度学习框架来识别驾驶员的身份,该人工神经网络分为局部感知层和全局感知层;
步骤5.1首先对车辆驾驶情景的分类O operation(Scene)中的各传感器数据提取统计学和数字信号的相关特征;提取的特征包括均值,最小值,最大值,方差,标准偏差,峰度,信号幅度面积(SMA),正值之和,负值之和,均方根(RMS),极大值数以及极小值数,共9×12=108个特征;此外选取了不同传感器两轴之间的轴相关系数也可作为特征(a x-a y,a x-a z,a y-a z,a x-g y,o y-o z,o z-a x,o z-g y,o y-a z),8个特征,加上持续时间,共计有108+8+1=117个特征;这117个特征组成一个特征向量,表征该车辆驾驶情景所对应的信号特征,将其输入到深度学习框架中进行学习;
步骤5.2局部感知层是由车辆驾驶情景的分类O operation(Scene)提取的特征向量作为输入的各神经网络学习单元构成的;各神经网络学习单元的输出作为第二层全局感知层的输入,进行全局特征的学习与训练;其中局部感知层中每一个神经网络学习单元的输入层是O operation(Scene)提取的117维特征组成;输入变量数目为L_Num_input_unit=117,隐藏层的神经单元个数为L_Num_hidden_unit=117,隐藏层的层数为L_Num_hidden_layer=2,输出层的神经单元个数为L_Num_output_unit=1;
其中局部感知层关键参数的设置如下:激活函数选用ReLU函数,学习速率设置为0.2,最大迭代次数设置为10000;
步骤5.3全局感知层是由局部感知层的输出作为输入构成的,各神经网络学习单元的输出在全局感知层进行全局特征的学习与训练;其中全局感知层的输入层输入变量数目取决于车辆驾驶情景的分类O operation(Scene)的多少,为G_Num_input_unit=Num_O operation (Scene),隐藏层的神经单元个数同样取决于车辆驾驶情景的分类O operation(Scene)的多少,为G_Num_hidden_unit=Num_O operation(Scene),隐藏层的层数为G_Num_hidden_layer=4,输出层的神经单元个数为G_Num_output_unit=1,即输出一个最终的身份识别分类结果;
其中全局感知层的关键参数的设置如下:激活函数选用Softmax函数,学习速率设置为0.2,最大迭代次数设置为10000,学习速率和最大迭代次数需要与局部感知层保持一致。

7.根据权利要求1所述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,其特征在于,步骤6基于一个循环神经网络(RNN)来识别驾驶员的驾驶状态;该循环神经网络的输入为根据时间顺序排序的车辆驾驶情景的分类O operation(Scene)中提取特征向量,循环神经单元为步骤5中的神经网络学习单元,输出为一个驾驶状态序列,即为最终的识别结果;
步骤6.1首先对车辆驾驶情景的分类O operation(Scene)中的各传感器数据提取统计学和数字信号的相关特征;提取的特征包括均值,最小值,最大值,方差,标准偏差,峰度,信号幅度面积(SMA),正值之和,负值之和,均方根(RMS),极大值数以及极小值数,共9×12=108个特征;此外选取了不同传感器两轴之间的轴相关系数也可作为特征(a x-a y,a x-a z,a y-a z,a x-g y,o y-o z,o z-a x,o z-g y,o y-a z),8个特征,加上持续时间,共计有108+8+1=117个特征;这117个特征组成一个特征向量,表征该车辆驾驶情景所对应的信号特征,作为循环神经单元的输入;
步骤6.2循环神经单元是由车辆驾驶情景的分类O operation(Scene)提取的特征向量作为输入的;循环神经单元的输出即为某一时刻在某个驾驶场景下识别的驾驶状态的;循环神经单元的输入层是O operation(Scene)提取的117维特征组成,输入变量数目为U_Num_input_ unit=117,隐藏层的神经单元个数为U_Num_hidden_unit=117,隐藏层的层数为U_Num_ hidden_layer=4,输出层的神经单元个数为U_Num_output_unit=1;
其中局部感知层关键参数的设置如下:激活函数选用Softmax函数,学习速率设置为0.1,最大迭代次数设置为10000;
步骤6.3循环神经单元的输出层为一个识别的驾驶状态,整个循环神经网络的输出层为一个根据时间排序的对应车辆驾驶情景的分类的驾驶状态序列;驾驶状态包括积极的(positive),中性的(negative),消极的(neutral),鲁莽驾驶(reckless driving),疲劳驾驶(fatigue driving)。

一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态
监测方法
技术领域
[0001]本发明涉及基于智能手机内置惯性传感器的车辆驾驶操作以及驾驶员身份与驾驶状态识别领域,特别是涉及一种基于机器学习与深度学习的驾驶员身份与驾驶状态识别领域的方法。

背景技术
[0002]目前最先进的驾驶员身份识别技术是基于固定大小的滑动时间窗口的卷积神经网络结合循环神经网络的模型(CNN+RNN)。

这种方法的缺点是,用卷积提取的特征在输入到机器学习的训练模型中之前,特征的对于驾驶员身份的区分度是未知的。

此外,由于使用固定大小的滑动时间窗口,很容易出现一个驾驶操作,例如转弯,被机械的划分为两个时间窗口分别提取特征进行训练,这会导致模型的准确性与合理性下降。

更重要的一点是,驾驶的操作与驾驶员的状态表现会因为不同的驾驶场景表现的很不一样。

例如同一个驾驶员在不同的驾驶场景下进行相同的动作时会有不同的表现。

要想识别驾驶员的身份,必须要找出不同驾驶员在同一驾驶场景下进行相同驾驶操作之间的不同。

所以不能够直接设计并使用一种通用的模型来训练所有驾驶员用户的数据。

因此只有通过根据标准驾驶操作库来划分的驾驶操作结合驾驶场景作为数据块,分别提取每一数据块内的驾驶特征,比较同类别数据块的特征,才能找到不同驾驶员在相似驾驶场景下进行的同一类别的驾驶操作之间的差异,从而达到识别出不同驾驶员身份的目的。

[0003]深度学习目前已经在计算机视觉、语音识别以及自然语言处理等问题上有深入的研究,并取得了很多瞩目的成就。

但是在处理与分析连续的数据方面的相关工作较少。

目前的几种经典的机器学习算法以及普通的人工神经网络都不能直接用于本发明的驾驶员识别这一问题中。

因为它们都无法满足整合不同驾驶场景与驾驶操作类别对应数据块的驾驶特征来识别驾驶员身份这一条件。

因此需要设计一个合适的人工神经网络的深度学习架构来解决驾驶员身份识别的问题。

[0004]驾驶元动作的识别目前主流的方法是阈值判别法,该方法通过经验预设判断阈值,来识别加速、减速、上坡、下坡以及左转和右转等基本的驾驶动作,本发明称之为驾驶元动作。

通过实验证明,这种方法十分有效。

虽然原理很简单,但是识别的准确率可以高达99%以上。

因此本文采用阈值判别法来处理手机传感器采集的数据,并识别出驾驶元动作。

[0005]驾驶状态的检测目前主流的方法是用机器学习的经典算法,如k最近邻(KNN)和支持向量机(SVM)来区分同一驾驶员的不同的驾驶状态。

但是类似的,由于同一个驾驶员在不同的驾驶场景下进行相同的动作时会有不同的表现,因此直接使用原始数据对驾驶状态进行检测是不合理的,识别的准确率也很低。

必须在基于驾驶场景与驾驶操作分类的基础上,比较同类别数据块的特征,寻找该驾驶员以不同的驾驶状态在相同驾驶场景下进行同一驾驶操作时的差异,才能准确的识别驾驶状态。

另外,由于驾驶状态是上下文相关的,因此本发明使用循环神经网络(RNN)来识别驾驶状态。

发明内容
[0006]本发明利用深度学习的理论,构建了一个适用于车辆驾驶员身份识别与驾驶状态监测的高准确率深度神经网络解决方案。

通过手机传感器内置的惯性传感器采集每一时刻汽车的运动数据,并分析出此时车辆的运动状态,即驾驶元动作。

再使用模糊识别的技术将驾驶元动作序列结合标准动作库划分为驾驶操作。

然后结合百度地图SDK提供的道路交通信息以及行车记录仪等摄像设备通过简单的计算机视觉技术识别出车辆行驶时前方的障碍物以及拥挤情况,并划分出不同的驾驶场景。

以这些驾驶场景结合驾驶操作进行分类,每一类分别提取出预设的数字信号统计学特征,并组成特征向量作为深度神经网络的输入。

通过构建驾驶员的个人驾驶特征库并训练对应的深度神经网络模型来识别驾驶员的身份。

在确认了驾驶员的身份之后,通过递归神经网络来识别驾驶员各时刻的驾驶状态。

[0007]本发明所采用的技术方案是:一种基于机器学习与深度学习的驾驶员身份与驾驶状态识别领域的方法,其特征在于,包括以下步骤:
[0008]一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,其特征在于,包括以下步骤:
[0009]步骤1:利用手机内置的加速度计、陀螺仪以及方向传感器以不小于30HZ的频率来采集驾驶员的车辆驾驶数据,并进行预处理工作;
[0010]步骤2:利用阈值判别法根据采集到的传感器数据识别出每一时刻车辆的运动状态,即驾驶元动作;
[0011]步骤3:根据识别的车辆驾驶元动作序列基于模糊识别结合标准动作库划分驾驶操作;
[0012]步骤4:结合道路交通信息以及摄像设备基于计算机视觉技术识别出车辆行驶时前方的障碍物以及拥挤情况,并划分出不同的驾驶场景;
[0013]步骤5:以驾驶场景和驾驶操作为分类依据,分别提取该类别的数字信号统计学特征,作为深度神经网络的输入,对于每个驾驶员构建相应的个人驾驶特征库并训练对应的深度神经网络模型来识别驾驶员的身份;
[0014]步骤6:在识别出驾驶员的身份之后,通过构建相应的递归神经网络来识别驾驶员各时刻的驾驶状态。

[0015]在上述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,步骤1中所述的利用手机内置的加速度计、陀螺仪以及方向传感器以不小于30HZ的频率来采集驾驶员的车辆驾驶数据,其具体实现包括以下子步骤:
[0016]步骤1.1:在t时刻通过手机内置的加速度计、陀螺仪以及方向传感器采集到的九轴传感器数据分别为:加速度计x,y,z轴数据a x,a y,a z,陀螺仪x,y,z轴数据g x,g y,g z,方向传感器x,y,z轴数据o x,o y,o z;
[0017]步骤1.2:使用卡尔曼滤波器对所有原始数据进行滤波,离散卡尔曼滤波算法主要包括两个部分,时间更新预测以及状态更新校正;其中时间更新预测是指利用当前时刻的信号值和其对应的误差协方差对下一时刻的状态进行先验估计;状态更新校正是指利用时间更新预测所得的先验估计和实际信号值得到改进后的下一时刻的后验估计;
[0018]下式表示离散时间信号x的离散随机差分方程:
[0019]x k=Ax k-1+Bu k-1+ωk-1
[0020]ωk表示估计离散事件过程中的激励噪声,是正态分布的白色噪声,p(ω)~N(0, Q);时间更新预测过程如下:
[0021]
[0022]P k-=AP k-1A T+Q
[0023]其中x k-表示先验估计,P k-表示协方差估计:
[0024]状态更新校正过程如下,先计算卡尔曼增益K k,矩阵H表示状态信号对测量信号的增益:
[0025]K k=P k-H T(HP k-H T+R)-1
[0026]下式表示状态的后验估计:
[0027]
[0028]下式表示估计状态的后验协方差:
[0029]P k=(I-K k H)P k-
[0030]以上卡尔曼滤波方程重复计算,上一时刻计算得到的值作为下一时刻计算的先验估计,而当前时刻的信号值和先验估计又用来计算当前时刻的后验估计;
[0031]步骤1.3:对加速度计z轴数据进行坐标校正,定义A z为校正后的加速度计z轴数据,坐标校正公式如下,其中方向传感器x,y,z轴数据为o x,o y,o z:
[0032]A z=a x sino z sino y+a y sino y sino z+a z coso z coso y
[0033]步骤1.4数据归一化采用离差标准化法,对原始数据进行线性变换,将所有的原始数据映射在[T1,T2]的目标区间中,消除量纲对于车辆驾驶员身份及驾驶状态识别的影响;[0034]定义需要进行归一化的数据集为D={Di|0<=i<=m},其中m为数据集中的数据个数;归一化后的数据的计算公式如下所示:
[0035]
[0036]其中,max(D)和min(D)分别为数据集D中的最大值和最小值,T2和T1分别为需要映射到的目标区间的上下界限;结合加速度、陀螺仪以及方向传感器的物理原理,目标映射区间取值为[-1,1]。

[0037]在上述的一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法,步骤2中利用阈值判别法根据采集到的传感器数据识别出每一时刻车辆的驾驶元动作,驾驶元动作包括静止、加速、减速、匀速、上坡、下坡、平地行驶、左打方向盘、右打方向盘、直线行驶这10种,定义在t时刻通过手机内置的加速度计、陀螺仪以及方向传感器采集到的九轴传感器数据经过预处理后的数据分别为:加速度计x,y,z轴数据A x,A y,A z,陀螺仪x,y,z轴数据G x,G y,G z,方向传感器x,y,z轴数据O x,O y,O z;判别驾驶元动作包括以下判断状态:[0038]判断状态一:通过方向传感器的y轴俯仰角数据来判断车辆的上下坡情况,若O y>0 +ΔO y0,则说明车辆正在下坡,相反,若O y<0-ΔO y0,则说明车辆正在上坡,若-ΔO y0<O y<ΔO y0,说明车辆基本在平地上行驶;
[0039]判断状态二:通过陀螺仪的z轴水平方向的运动角速度数据来判断车辆的左右转弯情况,若G z>0+ΔG z0,则说明车辆的方向盘正向右打,相反,若G z<0-ΔG z0,则说明车辆方向盘正向左打,若-ΔG z0<G z<ΔG z0,说明车辆基本正在保持直线行驶;。

相关文档
最新文档