【CN110032965A】基于遥感图像的视觉定位方法【专利】
【CN110084093A】基于深度学习的遥感图像中目标检测与识别的方法及装置【专利】
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201910135224.6(22)申请日 2019.02.20(71)申请人 北京航空航天大学地址 100083 北京市海淀区学院路37号申请人 烟台云都海鹰无人机应用技术有限公司(72)发明人 单光存 王红宇 高永 陈道生 (74)专利代理机构 中科专利商标代理有限责任公司 11021代理人 喻颖(51)Int.Cl.G06K 9/00(2006.01)G06K 9/46(2006.01)G06K 9/62(2006.01)G06N 3/04(2006.01)(54)发明名称基于深度学习的遥感图像中目标检测与识别的方法及装置(57)摘要本公开提供了一种基于深度学习的遥感图像中目标检测与识别的方法,包括:S1,采用卷积神经网络的多层输出,提取训练数据集中遥感图像的高级特征;S2,采用四点标记法来对任意四边形进行标记,在所述高级特征上生成多面积、多纵横比的多种候选框,并进行候选框筛选;S3,对卷积神经网络不同层筛选出的候选区域进行特征融合,根据融合结果得到分类误差与定位误差,并对筛选出的候选区域采用优化函数进行深度学习训练,得到训练优化模型;S4,通过所述训练优化模型对待识别遥感图像进行目标判别和定位。
本公开的方法与装置能够应用于遥感图片目标检测与识别,实现对遥感图像中小物体目标、高纵横比目标以及多类别目标的检测与识别。
权利要求书3页 说明书9页 附图5页CN 110084093 A 2019.08.02C N 110084093A1.一种基于深度学习的遥感图像中目标检测与识别的方法,包括:步骤S1,采用卷积神经网络的多层输出,提取训练数据集中遥感图像的高级特征;步骤S2,采用四点标记法来对任意四边形进行标记,在所述高级特征上生成多面积、多纵横比的多种候选框,并进行候选框筛选;步骤S3,对卷积神经网络不同层筛选出的候选区域进行特征融合,根据融合结果得到分类误差与定位误差,并采用优化函数进行深度学习训练,得到训练优化模型;步骤S4,通过所述训练优化模型对待识别遥感图像进行目标类别判别和定位。
一种遥感图像目标检测方法[发明专利]
专利名称:一种遥感图像目标检测方法专利类型:发明专利
发明人:滕竹,段雅妮,张宝鹏,李芮,李浥东申请号:CN202010122264.X
申请日:20200227
公开号:CN111339950A
公开日:
20200626
专利内容由知识产权出版社提供
摘要:本发明提供了一种遥感图像目标检测方法基于图像语义特征来设计锚框,借助特征的强大表达力来使锚框生成阶段既高效又精准。
通过中心预测分支和形状预测分支预测锚框的位置及大小,所采用的瓶颈结构扩大特征相对于原图的感受野,增强小目标检测能力。
本发明不仅解决了遥感图像目标多尺度问题,而且对小目标有较好的检测性能;本发明提供的方法基于图像语义特征来设计锚框,借助特征的强大表达力来使锚框生成阶段既高效又精准;通过中心预测分支和形状预测分支预测锚框的位置及大小,所采用的瓶颈结构扩大特征相对于原图的感受野,增强小目标检测能力;本发明中提供的模型提升了对多种数据集中多尺度目标的适应性,增强了泛化性。
申请人:北京交通大学
地址:100044 北京市海淀区西直门外上园村3号
国籍:CN
代理机构:北京市商泰律师事务所
代理人:刘源
更多信息请下载全文后查看。
基于图像的对象定位方法及装置[发明专利]
专利名称:基于图像的对象定位方法及装置专利类型:发明专利
发明人:郑丹丹,郑志超
申请号:CN202010276997.9
申请日:20200410
公开号:CN111192323A
公开日:
20200522
专利内容由知识产权出版社提供
摘要:本说明书提供基于图像的对象定位方法及装置,其中所述基于图像的对象定位方法包括:获取图像采集终端采集的目标图像,以及所述图像采集终端采集所述目标图像时的位置信息;基于检测模型对所述目标图像中的目标对象进行检测,获得所述目标对象在基于所述目标图像建立的图像坐标系中的图像坐标信息;确定所述图像坐标系与所述图像采集终端对应的终端坐标系的第一坐标变换矩阵;基于所述位置信息和所述图像坐标信息,以及所述第一坐标变换矩阵和第二坐标变换矩阵,定位所述目标对象在空间坐标系中的空间位置信息。
申请人:支付宝(杭州)信息技术有限公司
地址:310013 浙江省杭州市西湖区西溪路556号8层B段801-11
国籍:CN
代理机构:北京智信禾专利代理有限公司
代理人:付先智
更多信息请下载全文后查看。
一种基于图像的快速定位方法[发明专利]
专利名称:一种基于图像的快速定位方法专利类型:发明专利
发明人:冯友计,吴毅红
申请号:CN201410019325.4
申请日:20140116
公开号:CN103745498A
公开日:
20140423
专利内容由知识产权出版社提供
摘要:本发明公开了一种基于图像的快速定位方法,该方法包括以下步骤:对于拍摄场景进行三维重建,得到拍摄场景中的三维点及与三维点相对应的二进制描述子;对二进制描述子建立索引;根据重建得到的场景的三维点及与三维点相应的二进制描述子和二进制描述子的索引,对于输入的查询图像进行定位。
本发明借助三维点云实现基于图像的快速定位,在保持与现有的基于图像的定位方法相当的定位精度的情况下,定位速度比现有定位方法快接近10倍。
申请人:中国科学院自动化研究所
地址:100190 北京市海淀区中关村东路95号
国籍:CN
代理机构:中科专利商标代理有限责任公司
代理人:宋焰琴
更多信息请下载全文后查看。
视觉定位方法、装置、电子设备和计算机可读存储介质[发明专利]
专利名称:视觉定位方法、装置、电子设备和计算机可读存储介质
专利类型:发明专利
发明人:李照虎
申请号:CN202010118570.6
申请日:20200225
公开号:CN111324746A
公开日:
20200623
专利内容由知识产权出版社提供
摘要:本申请提出一种视觉定位方法、装置、电子设备和计算机可读存储介质,涉及计算机视觉和图像处理技术领域,其中,方法包括:通过对采集的图像进行语义识别,生成语义图谱,在建立的语义图谱中,通过随机游走算法确定每个实体的描述信息,进而在预先建立的实体地图中,基于实体的描述信息,确定每一个实体匹配的候选实体,根据候选实体在预先建立的实体地图中的所处区域,定位当前图像的采集区域,通过随机游走算法构造的每个实体节点的描述信息,不仅包含有相应节点的语义信息,还包含语义之间的局部约束信息,提高了采集的图像视觉定位的鲁棒性、准确性和稳定性,解决了现有技术中视觉定位鲁棒性和准确性较低的技术问题。
申请人:北京百度网讯科技有限公司
地址:100085 北京市海淀区上地十街10号百度大厦2层
国籍:CN
代理机构:北京清亦华知识产权代理事务所(普通合伙)
代理人:石茵汀
更多信息请下载全文后查看。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 201910283770.4
(22)申请日 2019.04.10
(71)申请人 南京理工大学
地址 210094 江苏省南京市孝陵卫200号
(72)发明人 朱明清 陆建峰
(74)专利代理机构 南京理工大学专利中心
32203
代理人 陈鹏
(51)Int.Cl.
G06K 9/00(2006.01)
G06T 7/73(2017.01)
G01C 21/20(2006.01)
G01C 21/32(2006.01)
(54)发明名称
基于遥感图像的视觉定位方法
(57)摘要
本发明公开了一种基于遥感图像的视觉定
位方法,包括以下步骤:根据遥感数据提取场景
道路网络和地物语义特征;从视觉传感器获取观
测值,对传感器数据进行特征提取和特征匹配,
实现定位和地图构建;根据定位地图优化定位与
地图;定位地图路网模块优化定位,实时估计当
前位姿在路网中的绝对位置,辅助于定位。
本发
明在遥感卫星地图上提取道路网络以及语义信
息辅助视觉定位,可在未知环境下实现高精度视
觉定位。
权利要求书2页 说明书5页 附图5页CN 110032965 A 2019.07.19
C N 110032965
A
1.一种基于遥感图像的视觉定位方法,其特征在于,包括以下步骤:
步骤1,根据遥感数据提取场景道路网络和地物语义特征;
步骤2,从视觉传感器获取观测值,对传感器数据进行特征提取和特征匹配;
步骤3,根据定位地图优化定位与地图;
步骤4,通过定位地图路网模块优化定位,实时估计当前位姿在路网中的绝对位置。
2.根据权利要求1所述的基于遥感图像的视觉定位方法,其特征在于,步骤1具体为:步骤1-1,构建端到端神经网络:
(1)获取遥感图像,并标记道路,对训练集做数据增强操作;
(2)根据上一步提供的数据对网络模型进行训练;
(3)将定位场景遥感图输入网络,得到道路网提取结果;
步骤1-2,根据神经网络所提取道路像素值,建立道路网模型;
步骤1-3,根据路网图、结构拓扑图以及地物语义信息生成所需的定位地图。
3.根据权利要求1所述的基于遥感图像的视觉定位方法,其特征在于,步骤2具体为:步骤2-1,定位初始化,恢复相机的旋转矩阵R和平移向量t,F cr 表示基本矩阵,X r 、X c 表示两个像素点归一化平面上的坐标;
步骤2-2,提取ORB特征,计算帧之间的位姿变化,具体步骤如下:
首先利用运动模式预测当前状态,通过匹配投影验证,如若匹配少于25%的特征,进入关键帧模式,与最近关键帧匹配,得到初始位姿估计;
再通过局部地图跟踪优化相机位姿
x=[ε1,…,εm ,P 1,…,P n ];
式中,ε表示单个位姿,P表示单个路标点,e表示观测误差;E、F是整体目标函数对路标点的偏导数和整体变量的导数,xc表示相机位姿变量,xp表示空间点变量;
步骤2-3,选择性插入关键帧,然后检查当前地图点云,剔除冗余点,三角化新地图点,s 1x 1=s 2Rx 2+t;x 1,x 2为两个特征点归一化坐标,s 1,s 2为两个特征点的深度,R旋转举证,t表示位移。
4.根据权利要求1所述的基于遥感图像的视觉定位方法,其特征在于,步骤3具体为:步骤3-1,变化点检测,根据定位地图中的变化点图模块,当当前状态与其所在路径变化点位置theta3范围之内触发变化点检测,在固定滑动窗口内计算其每个位置平面内偏航角变化(-theta,theta),计算窗口变化均值,根据下一个点变化点特征,在theta范围内,则认为当前位置变化点为候选点,记录下来,当到达极大值时,
则认为该点为变化点;
|xi -pt|<θ;|i|<μ;f表示偏航角θy ,
pt表示距离变化点,θ预设置的检测范围,μ表示预设置F的计算范围;
R表示旋转矩阵;
θx =tan -1(R32,R33);θz =tan -1(R21,R11),θx 、θy 、θz 分别表示欧拉角的各个方向;
权 利 要 求 书1/2页2CN 110032965 A。