【CN109871885A】一种基于深度学习和植物分类学的植物识别方法【专利】

合集下载

基于深度学习的植物病虫害识别方法[发明专利]

基于深度学习的植物病虫害识别方法[发明专利]

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201911314361.2(22)申请日 2019.12.19(71)申请人 吉林农业大学地址 130118 吉林省长春市净月开发区新城大街2888号(72)发明人 徐兴梅 刘远 周晶 陈谦 王硕 王宁 于孝铂 (74)专利代理机构 长春众邦菁华知识产权代理有限公司 22214代理人 于晓庆(51)Int.Cl.G06T 3/40(2006.01)G06T 7/11(2017.01)G06T 7/187(2017.01)G06K 9/62(2006.01)G06N 3/04(2006.01)G06N 3/08(2006.01)(54)发明名称基于深度学习的植物病虫害识别方法(57)摘要基于深度学习的植物病虫害识别方法,涉及植物病虫害防治领域,解决了现有农作物病虫害分类识别方法存在的图像识别率低、模型结构复杂、预测精准度低的问题。

本发明包括:采集植物病虫害叶片图像和正常植物叶片图像;图像预处理,得到超分辨率植物病虫害叶片目标图像;通过深度学习算法对超分辨率植物病虫害叶片目标图像进行融合、分析和计算,生成植物病虫害图像特征表达;通过深度学习网络对植物病虫害图像特征表达进行分析和计算,生成基于深度学习网络的植物病虫害识别模型;利用基于深度学习网络的植物病虫害识别模型对需要识别的植物病虫害叶片图像进行训练。

本发明图像识别率高、模型结构简单、预测精准度高。

权利要求书3页 说明书5页CN 111080524 A 2020.04.28C N 111080524A1.基于深度学习的植物病虫害识别方法,其特征在于,包括以下步骤:步骤一、采集植物病虫害叶片图像和正常植物叶片图像;步骤二、图像预处理,得到超分辨率植物病虫害叶片目标图像;步骤三、通过深度学习算法对超分辨率植物病虫害叶片目标图像进行融合、分析和计算,生成植物病虫害图像特征表达;步骤四、通过深度学习网络对植物病虫害图像特征表达进行分析和计算,生成基于深度学习网络的植物病虫害识别模型;步骤五、利用基于深度学习网络的植物病虫害识别模型对需要识别的植物病虫害叶片图像进行训练。

一种基于深度神经网络的中药材识别方法[发明专利]

一种基于深度神经网络的中药材识别方法[发明专利]

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201710939672.2(22)申请日 2017.10.11(71)申请人 华南理工大学地址 510006 广东省广州市番禺区广州大学城华南理工大学(72)发明人 文贵华 庄奕珊 (74)专利代理机构 广州市华学知识产权代理有限公司 44245代理人 李斌(51)Int.Cl.G06K 9/62(2006.01)G06N 3/04(2006.01)G06N 3/08(2006.01)(54)发明名称一种基于深度神经网络的中药材识别方法(57)摘要本发明公开了一种基于深度神经网络的中药材识别方法,包括如下步骤:将网络爬虫和人工拍照采集中药材图片作为数据集的输入并进行预处理;训练与预测过程采用集成学习之Bagging方法,即采用随机采样方法产生多个子训练集;利用经典卷积神经网络模型对各个子训练集进行微调训练,生成多个弱分类器,采用的卷积神经网络模型包括AlexNet、SqueezeNet和GoogleNet,最后配合Softmax分类算法;并使用集成学习组合策略得到强分类器,得到分类结果,所述集成学习组合策略采用投票法。

本发明方法用于辅助识别中药材,减少业余人士在识别中出现的错误,且能准确性高、识别速度快、性能稳定地分析中药材。

权利要求书2页 说明书8页 附图2页CN 107958257 A 2018.04.24C N 107958257A1.一种基于深度神经网络的中药材识别方法,其特征在于,所述的中药材识别方法包括如下步骤:S1、采集中药材图片作为数据集的输入,将采集的中药材图片进行预处理;S2、采用随机采样方法产生多个中药材子训练集;S3、利用卷积神经网络模型对各个中药材子训练集进行微调训练,生成多个中药材识别弱分类器;S4、采用集成学习组合策略得到中药材识别强分类器,得到中药材分类结果。

基于深度学习的中草药分类识别

基于深度学习的中草药分类识别

2020年12月第6卷第35期No.6 roll up No. 35 Issue, December, 2020智慧健康Smart Healthcare1智蕙匣疔_行业劲您DOI:10.19335/ki.2096-1219.2020.35.001基于深度学习的中草药分类识别张万义1,张千2,潘继波\张浩宇2,孟宇翔2,相玖红2(1.东营市胜利医院,山东东营257091; 2.中国石油大学(华东)计算机科学与技术学院,山东青岛266580)摘要:随着国家对中医药发展的大力支持,中草药在治疗某些疾病方面得到了老百姓的认可,取得了很好 的效果。

应充分利用现代科学技术,推动中药现代化和国际化,以满足时代发展和民众日益增长的医疗保健需求。

通过设计基于中草药图像的分类方法,实现对中草药的准确分类,为老百姓普及中医药知识。

针对黄河三角洲地 区特有的十七种中草药,建立数据集。

使用深度学习算法分类,最终提升了分类的准确率,使训练集分离出来的 验证集的平均识别准确率达到了 96%。

关键词:微信小程序;中草药;分类识别;深度学习本文引用格式:张万义,张千,潘继波,等.基于深度学习的中草药分类识别[J].智慧健康,2020,6(35):1-4.Chinese Herbal Medicine Classification andRecognition Based on Deep LearningZHANG Wan-yi1, ZHANG Qian2, PAN Ji-bo1, ZHANG Hao-yu2, MENG Yu-xiang2, XIANG Jiu-hong2 (l.Shengli Hospital of Dongying, Dongying, Shandong 257091; 2. College of Computer Science and Technology, ChinaUniversity of Petroleum, Qingdao, Shandong 266580)ABSTRACT: With the country's strong support for the development of Chinese medicine, Chinese herbal medicine has been recognized by the people in the treatment of certain diseases and achieved good results. We should make full use of modem science and technology to promote the modernization and internationalization of traditional Chinese medicine to meet the development of the times and the growing medical and healthcare needs of the people. By designing the classification method based on the images of Chinese herbal medicine, the accurate classification of Chinese herbal medicine can be achieved and the knowledge of Chinese medicine can be popularized for the common people. For the 17 kinds of Chinese herbal medicines unique to the Yellow River Delta, a data set was established. Using deep learning algorithm for classification, the classification accuracy is finally improved, and the average recognition accuracy of the verification set separated from the training set reaches 96%.KEY WORDS: WeChat applet; Chinese herbal medicine; Classification and recognition; Deep learning〇引言中草药作为中医药材,是中华民族在与疾病长 期斗争的过程中积累的宝贵财富。

基于深度学习的高分辨率遥感影像农作物分类方法[发明专利]

基于深度学习的高分辨率遥感影像农作物分类方法[发明专利]

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201910551686.6(22)申请日 2019.06.25(71)申请人 吉林大学地址 130012 吉林省长春市前进大街2699号(72)发明人 顾玲嘉 杨舒婷 任瑞治 (74)专利代理机构 长春吉大专利代理有限责任公司 22201代理人 李泉宏(51)Int.Cl.G06K 9/00(2006.01)G06K 9/62(2006.01)(54)发明名称基于深度学习的高分辨率遥感影像农作物分类方法(57)摘要本发明公开了一种基于深度学习的高分辨率遥感影像农作物分类方法,属于卫星遥感图像处理与应用的技术领域。

本发明目的是解决现有高分辨率遥感影像在对农作物分类中存在的地物边界模糊、算法复杂度高与忽略特征波段信息等缺点,以及目前神经网络方法无法对高分辨率遥感图像进行农作物分类的问题。

本发明采用36波段的组合方式,结合本发明所设计分VGG神经网络结果,利用VGG神经网络的深度学习,通过多次迭代达到了对10m分辨率的高分辨遥感影像中的农作物地块进行准确的分类。

权利要求书4页 说明书11页 附图3页CN 110287869 A 2019.09.27C N 110287869A1.基于深度学习的高分辨率遥感影像农作物分类方法,其特征在于,该方法的具体步骤如下:步骤一、影像预处理:获取到的高分辨率遥感影像是进行过几何精校正的正射影像,对该影像进行辐射定标与大气校正,然后对处理好的遥感图像进行图像剪裁选取需要的图像区域;步骤二、图像分割:对获取到的高分辨率遥感影像的各特征波段进行分割操作;采用Felzenszwalb分割算法,对图像进行分割操作,各地物之间的边界变得清晰;步骤三、高分辨率遥感影像的特征波段组合:针对多时相遥感影像的波段信息进行特征波段组合,提出一种36波段的组合方式;基于36波段的特征波段组合里包括3景的多时相遥感影像中的红波段、绿波段、蓝波段、近红波段、3个红边波段、2个短波红外波段、归一化植被指数NDVI、归一化水指数NDWI和差值植被指数DVI;所述的归一化植被指数NDVI的公式如式(1)所示:NDVI=(NIR-R)/(NIR+R) (1)其中,NIR为近红外波段的反射值,R为红光波段的反射值;归一化水指数NDWI的公式如式(2)所示:NDVI=(NIR-R)/(NIR+R) (2)其中,G为绿光波段的反射值,NIR为近红外波段的反射值;差值植被指数的缩写是DVI的公式如式(3)所示:DVI=NIR-R (3)其中,NIR为近红外波段的反射值,R为红光波段的反射值;步骤四、训练集的选取:在获取到的遥感影像中根据实地考察结果和不同的作物类型表现出不同的光谱特征,为不同的作物类型选择出符合光谱特征的训练样本,并基于像素点分类,其中80%的像素点进行训练,20%的像素点进行测试;步骤五、神经网络分类算法:采用VGG算法对36个特征波段组合的遥感影像进行分类,经过1500次迭代后,得到农作物的分类结果;所述的VGG网络结构如下:(a)VGG网络的第0层为输入层,输入图像大小为6×6×1,分别代表了高分辨率遥感影像的36个波段;(b)输入层之后为VGG网络的第一部分;VGG网络的第一部分由两个相同的连续的卷积层Conv2D、激活层Activation和池化层MaxPool2D组成,卷积层设定的参数如下:滤波器的个数filters=64,内核大小kernel_size=2,输出特征图大小的计算方式为padding='SAME',填充padding=1,步长strides=1,输入图像经过卷积后,即卷积层输出特征响应图的尺寸为6×6×64,两个相同的连续的卷积层Conv2D之后为激活层Activation,使用的激活函数是Relu,激活层Activation之后为池化层MaxPool2D,池化层参数如下:内核大小kernel_size=2,输出特征图大小的计算方式为padding='SAME',填充padding=0,步长strides=2,池化方式为最大池化,即池化层输出特征响应图的尺寸为3×3×64;(c)VGG网络的第二部分由两个相同的连续的卷积层、激活层和池化层组成,卷积层参数具体如下:滤波器的个数filters=128,内核大小kernel_size=2,输出特征图大小的计算方式为padding='SAME',填充padding=1,步长strides=1,输入图像经过卷积后,即卷积层输出特征响应图的尺寸为3×3×128,激活层使用的激活函数是Relu,池化层参数具体如下:内核大小kernel_size=2,输出特征图大小的计算方式为padding='SAME',填充padding=1,步长strides=2,池化方式为最大池化,即池化层输出特征响应图的尺寸为2×2×128;(d)VGG网络的第三部分由三个相同的连续的卷积层、激活层和池化层组成;卷积层参数具体如下:滤波器的个数filters=256,内核大小kernel_size=2,输出特征图大小的计算方式为padding='SAME',填充padding=1,步长strides=1,输入图像经过卷积后,即卷积层输出特征响应图的尺寸为2×2×256,激活层使用的激活函数是Relu,池化层的参数具体如下:内核大小kernel_size=2,输出特征图大小的计算方式为padding='SAME',填充padding=0,步长strides=2,池化方式为最大池化,即池化层输出特征响应图的尺寸为1×1×256;(e)VGG网络的第四部分由两个连续的全连接层Dense组成,两个全连接层Dense的神经元个数均为1024个,其中,第一个全连接层Dense的输入个数为1×1×256,经扁平化后变为1×256,权重系数w为256×1024,偏置b为1024,输出个数为1×1024;第二个全连接层Dense 的输入个数为1×1024,权重系数w为1024×1024,偏置b为1024,输出个数为1×1024;(f)构建VGG网络的第5部分;其中,第5部分为输出层,神经元个数是4个,输入个数为1×1024,权重系数为1024×4,偏置b为4,输出个数为4,输出的结果为四类作物的可能概率,概率值最大的索引值对应该像素点的作物分类。

【CN109872331A】一种基于深度学习的遥感图像数据自动识别分类方法【专利】

【CN109872331A】一种基于深度学习的遥感图像数据自动识别分类方法【专利】
(74)专利代理机构 天津市北洋有限责任专利代 理事务所 12201
代理人 李林娟
(51)Int .Cl . G06T 7/11(2017 .01) G06T 7/13(2017 .01) G06T 7/90(2017 .01) G06T 5/00(2006 .01) G06T 3/60(2006 .01)
( 54 )发明 名称 一种基于深度学习的遥感图像数据自动识
别分类方法 ( 57 )摘要
本发明公开了一种基于深度学习的遥感图 像数据自动识别分类方法,所述方法包括以下步 骤 :对遥感图 像进行色彩迁移处理 ,得到第一预 处理后遥感图像;对第一次预处理后遥感图像进 行特征 增强处理 ,获取第二预处理 后遥感图 像 ; 对第二预处理后遥感影像进行数据增强处理 ,获 取第三预处理后遥感图像;将第三预处理后遥感 图像分为训练集和测试集,然后用训练集训练模 型 ,最后 用训练好的 模型对 测试集进行 测试。本 发明能 够有效 克服 传统图 像分 割技术的 适 用面 有限、过分割、边缘平滑度差、分割准确率不高的 问题;同时克服了神经网络因遥感图像明暗程度 不同 、分辨率不同 、拍摄 角度不同 而导致准 确率 不高的问题。
权 利 要 求 书
1/2 页
1 .一种基于深度学习的遥感图像数据自动识别分类方法,其特征在于,所述方法包括 以下步骤:
对遥感图像进行色彩迁移处理,得到第一预处理后遥感图像; 对第一次预处理后遥感图像进行特征增强处理,获取第二预处理后遥感图像; 对第二预处理后遥感影像进行数据增强处理,获取第三预处理后遥感图像; 将第三预处理 后遥感图 像分为 训练集 和测试集 ,然后 用训练集 训练模型 ,最 后 用训练 好的模型对测试集进行测试。 2 .根据权利要求1所述的一种基于深度学习的遥感图像数据自动识别分类方法,其特 征在于,所述对遥感图像进行色彩迁移处理具体为:

一种基于深度学习算法的植物电信号分类识别方法[发明专利]

一种基于深度学习算法的植物电信号分类识别方法[发明专利]

专利名称:一种基于深度学习算法的植物电信号分类识别方法专利类型:发明专利
发明人:刘锴,刘鹏,赵娇娇,袁悦,吕途,袁佩
申请号:CN202011125913.8
申请日:20201020
公开号:CN112364710A
公开日:
20210212
专利内容由知识产权出版社提供
摘要:本发明公开了本发明一种基于深度学习算法的植物电信号分类识别方法,通过采集植物叶片电信号,通过二维分解算法,将一维的电信号展开为低频至高频依次分布的二维向量。

然后利用深度学习中的图像识别算法对二维向量进行训练识别,判断植物当前的生命状态;本发明的方法解决了现有植物生命状态判断中,信息获取滞后、周期长,以及破坏性测量,不适合珍稀品种评价的问题。

适用于节水灌溉、育苗选种、环境监测等诸多领域。

申请人:西安理工大学
地址:710048 陕西省西安市碑林区金花南路5号
国籍:CN
代理机构:西安弘理专利事务所
代理人:韩玙
更多信息请下载全文后查看。

一种基于深度学习的植物叶片识别方法[发明专利]

一种基于深度学习的植物叶片识别方法[发明专利]

专利名称:一种基于深度学习的植物叶片识别方法专利类型:发明专利
发明人:任洪娥,朱晓龙,朱朦,王金聪
申请号:CN201711400467.5
申请日:20171221
公开号:CN108133186A
公开日:
20180608
专利内容由知识产权出版社提供
摘要:植物物种的辨别主要依赖于植物叶片特征的识别。

然而,大多数识别系统在复杂背景下检测植物叶片等小目标时表现出较差的性能。

为了提高复杂环境中的植物叶片的识别能力,本文提出了一种基于深度学习的植物叶片识别方法,利用带有batch normalization(BN)的Inception V2代替Faster RCNN中的卷积神经层提供多尺度图像特征给region proposal network(RPN)。

此外,原始图像首先根据网格被切割成指定的大小,并将分割图像按顺序加载到提出的网络中。

通过Softmax 和bounding box regressor的精确分类后,带有识别标签的分割图像拼接起来作为最终的输出图像。

实验结果表明在复杂背景中对叶片识别,该方法比Fastrer RCNN具有更高的识别精度。

申请人:东北林业大学
地址:150040 黑龙江省哈尔滨市香坊区和兴路26号
国籍:CN
更多信息请下载全文后查看。

基于CNN模型和迁移学习的植物病害识别方法及系统[发明专利]

基于CNN模型和迁移学习的植物病害识别方法及系统[发明专利]

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201911101895.7(22)申请日 2019.11.12(71)申请人 上海五零盛同信息科技有限公司地址 201203 上海市浦东新区自由贸易试验区郭守敬路351号2号楼A635-01室(72)发明人 王敬贤 卢强 储昭兵 陈岳军 徐源 (74)专利代理机构 上海段和段律师事务所31334代理人 李佳俊 郭国中(51)Int.Cl.G06K 9/00(2006.01)G06K 9/62(2006.01)(54)发明名称基于CNN模型和迁移学习的植物病害识别方法及系统(57)摘要本发明提供了一种基于CNN模型和迁移学习的植物病害识别方法,包括:构建原始图像数据集,原始图像数据集包括各种植物病害图像;对原始数据集进行数据增强,得到新的训练数据集;构建模型;在模型中获取预训练模型参数并设置瓶颈层的参数;对瓶颈层的参数进行提取和保存,得到植物病害识别模型;根据植物病害识别模型识别植物病害图像,得到植物病害的识别结果并展示。

本发明将图像直接输入网络,避免了植物叶片的病斑分割和复杂背景分割过程,也减少了识别过程中数据建模的复杂度。

不仅适用于病斑类病害,也适用于叶部粉状物病害和粒状物病害,对复杂的自然环境和对象周围的物体也具有的识别能力。

权利要求书2页 说明书9页 附图4页CN 110929610 A 2020.03.27C N 110929610A1.一种基于CNN模型和迁移学习的植物病害识别方法,其特征在于,包括:数据集构建步骤:构建原始图像数据集,原始图像数据集包括各种植物病害图像;数据增强步骤:对原始数据集进行数据增强,得到新的训练数据集;建模步骤:构建模型;参数设置步骤:在模型中获取预训练模型参数并设置瓶颈层的参数;特征向量处理步骤:对瓶颈层的参数进行提取和保存,得到植物病害识别模型,利用得到的植物病害识别模型对数据增强后的新的训练数据集进行特征向量的提取;识别步骤:根据植物病害识别模型识别植物病害图像,得到植物病害的识别结果并展示。

一种基于深度学习的农作物分类方法及系统[发明专利]

一种基于深度学习的农作物分类方法及系统[发明专利]

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201810387307.X(22)申请日 2018.04.26(71)申请人 中国农业大学地址 100193 北京市海淀区圆明园西路2号(72)发明人 黄健熙 朱德海 刘帝佑 杨柠 熊全 刘玮 卓文 刘哲 张晓东 (74)专利代理机构 北京路浩知识产权代理有限公司 11002代理人 王莹 吴欢燕(51)Int.Cl.G06K 9/62(2006.01)G06Q 10/06(2012.01)G06Q 50/02(2012.01)(54)发明名称一种基于深度学习的农作物分类方法及系统(57)摘要本发明提供一种基于深度学习的农作物分类方法及系统,该方法包括:将待分类作业区划分为多个子作业区,获取每一子作业区的多时相多特征数据集;根据多时相多特征数据集和待分类作业区中待分类农作物生育期的作物样本数据,获取任一子作业区中每一像素的多时相多特征数据序列;根据每一像素的多时相多特征数据序列,获取每一像素的生长特征图;通过训练后的神经网络模型对每一像素的生长特征图进行识别,获取所述待分类农作物的分类结果。

本发明将农作物分类问题转为时间序列生长特征图的识别问题,通过深度学习方法,使得在主要粮食作物主产区尺度上不规则时间序列是一种常态的数据环境下依旧使用,提高了分类的精度。

权利要求书2页 说明书8页 附图1页CN 108932521 A 2018.12.04C N 108932521A1.一种基于深度学习的农作物分类方法,其特征在于,包括:S1,对于待分类作业区中任一子作业区对应的遥感数据,根据所述任一子作业区对应的遥感数据的评价指标,获取所述任一子作业区的多时相多特征数据集,不同农作物对应评价指标的取值不同;S2,根据所述任一子作业区中每一像素的多时相多特征数据序列,获取每一像素的生长特征图,每一像素的多时相多特征数据序列根据所述多时相多特征数据集和所述待分类作业区中每种农作物生育期的作物样本数据获得;S3,通过训练后的神经网络模型对每一像素的生长特征图进行识别,根据每一像素的分类结果,获取所述待分类作业区中农作物的分类结果。

一种基于深度学习的植物线虫数据自动标注和分类识别方法[发明专利]

一种基于深度学习的植物线虫数据自动标注和分类识别方法[发明专利]

专利名称:一种基于深度学习的植物线虫数据自动标注和分类识别方法
专利类型:发明专利
发明人:庄佳衍,刘阳明,肖江剑,徐宁远,朱莹
申请号:CN202011175736.4
申请日:20201028
公开号:CN112308129A
公开日:
20210202
专利内容由知识产权出版社提供
摘要:本发明公开了一种基于深度学习的植物线虫数据自动标注和分类识别方法,利用少量人工标注的植物线虫图像训练深度学习网络,并在深度学习网络中添加注意力损失从而强化植物线虫标注区域,再将模型的网络权重用于标注大量非人工标注的植物线虫图像数据,通过数次的植物线虫图像数据标注和训练过程,完成植物线虫识别项目数据集的自动标注,同时得到与此植物线虫识别项目对应的强化模型。

本发明能够有效地针对植物线虫数据进行标注,从而提高植物线虫数据的训练效率与植物线虫分类识别的准确率。

申请人:中国科学院宁波材料技术与工程研究所
地址:315201 浙江省宁波市镇海区庄市大道519号
国籍:CN
代理机构:南京利丰知识产权代理事务所(特殊普通合伙)
更多信息请下载全文后查看。

一种植物种类自动识别方法及系统[发明专利]

一种植物种类自动识别方法及系统[发明专利]

专利名称:一种植物种类自动识别方法及系统专利类型:发明专利
发明人:孙东亮
申请号:CN201710491082.8
申请日:20170623
公开号:CN107145879A
公开日:
20170908
专利内容由知识产权出版社提供
摘要:本发明涉及植物种类识别技术领域,提供一种植物种类自动识别方法及系统,方法包括:上传植物图像;服务器端对植物图像进行图像质量的识别判断,判断植物图像的图像质量是否合格;当合格时,对上传的植物图像进行图像处理,获取包含有植物的分割图像;对获取到的包含有植物的分割图像进行编码,生成分割图像内所包含的植物的编码向量参数和植物的各个部分的编码向量参数;将获取到的植物的编码向量参数和植物的各个部分的编码向量参数与预先存储的植物标准向量参数进行比对,确定出植物的种类;将确定出的植物种类反馈给用户终端,并在用户终端上进行显示,实现对植物种类的自动识别,其识别率较高,而且识别速度较快,给用户较好的体验。

申请人:依通(北京)科技有限公司
地址:100085 北京市海淀区信息路甲28号科实大厦D座605
国籍:CN
代理机构:北京酷爱智慧知识产权代理有限公司
代理人:孟凡臣
更多信息请下载全文后查看。

一种植物识别方法[发明专利]

一种植物识别方法[发明专利]

专利名称:一种植物识别方法
专利类型:发明专利
发明人:李康顺,林永平,陈海堂,李兆坤,吴嵚玥,赵李琼申请号:CN201811330748.2
申请日:20181109
公开号:CN109635653A
公开日:
20190416
专利内容由知识产权出版社提供
摘要:本发明公开了一种植物识别方法,该方法包括:预处理,用于将植物图像转换为二值图像;特征提取,用于提取上述图像中的相对特征,构成特征数据矩阵;分类识别,用于构建基于深度学习的神经网络模型,该模型采用五层BP神经网络,4层全连接层,最后一层为归一层;通过训练该模型,用于后续的植物识别。

本发明方法采用具有代表性的8个相对特征,使其能适用于大多数植物的识别,相对于现有技术,能更大限度的识别更多的植物种类,提高了识别的准确率。

申请人:华南农业大学
地址:510642 广东省广州市天河区五山路483号
国籍:CN
代理机构:广州市华学知识产权代理有限公司
代理人:刘巧霞
更多信息请下载全文后查看。

一种基于深度ISA数据融合的植被类型识别方法[发明专利]

一种基于深度ISA数据融合的植被类型识别方法[发明专利]

专利名称:一种基于深度ISA数据融合的植被类型识别方法专利类型:发明专利
发明人:张旭,郭颖,侯亚男,陈艳,范东璞,孙蕊
申请号:CN201910822501.0
申请日:20190902
公开号:CN112446256A
公开日:
20210305
专利内容由知识产权出版社提供
摘要:本发明公开了一种基于深度ISA数据融合的植被类型识别方法,包括以下步骤:基于时间t 获取MODIS数据和Landsat影像数据并进行预处理;构建时空适应性反射率融合模型融合MODIS数据和Landsat影像数据并生成时序遥感影像数据集;基于时序遥感影像数据集构建深度卷积ISA神经网络模型;根据构建的深度卷积ISA神经网络模型对预测影像进行分类,并生成植被类型遥感分布图;首先基于数据融合模型,生成中高时空分辨率遥感时间序列数据集,然后基于该数据,构建深度卷积ISA神经网络模型,进行植被类型分类,能够优化单时相遥感数据植被类型分类效果,同时提升中高时空分辨率遥感时序植被类型分类的自动化水平。

申请人:中国林业科学研究院资源信息研究所
地址:100091 北京市海淀区东小府2号
国籍:CN
代理机构:上海愉腾专利代理事务所(普通合伙)
代理人:谢小军
更多信息请下载全文后查看。

【CN109871905A】一种基于注意力机制深度模型的植物叶片识别方法【专利】

【CN109871905A】一种基于注意力机制深度模型的植物叶片识别方法【专利】

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201910193743.8(22)申请日 2019.03.14(71)申请人 同济大学地址 200092 上海市杨浦区四平路1239号(72)发明人 李德竹 黄德双 (74)专利代理机构 上海科盛知识产权代理有限公司 31225代理人 叶敏华(51)Int.Cl.G06K 9/62(2006.01)G06N 3/04(2006.01)(54)发明名称一种基于注意力机制深度模型的植物叶片识别方法(57)摘要本发明涉及一种基于注意力机制深度模型的植物叶片识别方法,包括步骤:1)通过裁剪、翻转、旋转、加噪声方式扩充植物叶片图片数据集,通过基础网络模型提取图片特征;2)通过压缩得到特征中不同通道的通道描述子,再通过萃取得到不同通道的权重,将各通道根据相应的权重进行缩放,得到输入图片的全局特征图谱;3)将特征通过特殊的卷积层操作提取输入图片的局部特征;4)结合全局特征和局部特征获得网络最终的损失函数并对网络进行训练;5)移除网络模型的Softmax层,融合全局特征和局部特征得到的类别概率,获取植物叶片的识别类别。

与现有技术相比,本发明具有模型识别的准确率高、提高收敛速度等优点。

权利要求书2页 说明书4页 附图2页CN 109871905 A 2019.06.11C N 109871905A1.一种基于注意力机制深度模型的植物叶片识别方法,其特征在于,包括下列步骤:1)对扩充植物叶片图片数据集进行扩充,通过基础网络模型对图片进行特征提取;2)对步骤1)中的特征进行压缩操作,获取不同通道的通道描述子,并将通道描述子通过萃取操作获取不同通道的权重,然后将各通道根据相应的权重进行缩放操作,得到输入图片的全局特征;3)对步骤1)中的特征利用构建的卷积层操作提取输入图片的局部特征;4)结合步骤2)得到的输入植物叶片图像的全局特征及步骤3)获取的局部特征,获取基础网络模型最终的损失函数,根据获取的损失函数对基础网络模型进行训练;5)在基础网络模型的测试阶段,移除基础网络模型最后的Softmax层,将全局特征和局部特征得到的类别概率进行融合,对融合概率最大值所对应的植物种类作为植物叶片最终的识别类别。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

权利要求书2页 说明书4页 附图2页
CN 109871885 A
CN 109871885 A
权 利 要 求 书
1/2 页
1 .一种基于深度学习和植物分类学的植物识别方法,其特征在于,包括以下步骤: 步骤1,收集样本植物图像和待识别植物图像,将样本植物图像进行科、属、种的标记; 步骤2 ,将样本植物图 像输入深度卷积神经网络中进行 训练 ,所述深度卷积神经网络包 括输入层、卷积层、池化层、全连接层和输出层 ,其中 ,输入层接收输入图 像 ,卷积层和池化 层 用于图 像特征提取 ,全连接层 用于特征分类 ,输出层 用于输出结果 ;输出层同时具有3个 输出值,分别为该植物的科、属、种标记; 所述深度卷积神经网络的损失函数为植物科、属、种的交叉熵损失的加权和,即为: l=alf+blg+cls 其中 ,l表示损失函数加权和 ,lf ,lg ,ls分别为科、属、种的交叉熵损失函数 ,a ,b ,c分别 为科、属、种损失函数的权重,f ,g ,s分别表示科、属、种; 科、属、种的交叉熵损失函数为:
别方法 ( 57 )摘要
本发明公开了一种基于深度学习和植物分 类学的植物识别方法。将样本植物图像进行科、 属、种的 标记 ;将样本植物图 像输入深度卷积神 经网络中进行训练。将损失函数设定为科、属、种 标签的交叉熵损失的加权和,通过随机梯度下降 算法更新神经网络的权值,待该深度卷积神经网 络收敛后结束训练并固定各层权值不再改变得 到训练好的深度卷积神经网络。本发明通过将深 度学 习与植物分类学结合 ,引入科 、属标签作为 学习目标,提高了识别正确率。
其中,i∈{f ,g ,s},li为分别对于科、属、种的交叉熵损失函数,n表示分类数,yij表示第 j个分类的真实概率, 表示第j个分类的预测概率,给定输入图片X,预测权值θi,则对第j 个分类预测权值为θij,则
通过随机梯度下降算法更新深度卷积神经网络的各层预测权值,待训练损失函数小于
损失阀值时,停止训练并固定各层权值不再改变,得到训练好的深度卷积神经网络;
代理人 彭英
(51)Int .Cl . G06K 9/62(2006 .01) G06N 3/04(2006 .01) G06K 9/00(2006 .01)
(10)申请公布号 CN 109871885 A (43)申请公布日 2019.06.11
( 54 )发明 名称 一种基于深度学习和植物分类学的植物识
图像面积不小于原始图像的二分之一;放大是指多次随机将图像中的一部分放大后再进行
采样。
3 .根据权利要求1所述基于深度学习和植物分类学的植物识别方法,其特征在于:所述
深度卷积神经网络中输入层、卷积层、池化层、全连接层、输出层的总层数应在10层以上。
4 .根据权利要求1所述基于深度学习和植物分类学的植物识别方法,其特征在于:训练
过程包括前向传播和反向传播,在反向传播时,根据预先设定的学习速率更新网络的权值。
2
CN 109871885 A
权 利 要 求 书
2/2 页
5 .根据权利要求1所述基于深度学习和植物分类学的植物识别方法,其特征在于:所述 损失阀值一般为0 .00001。
3
CN 109871885 A
说 明 书
1/4 页
所述随机梯度下降算法目标为:
min li
求解方法为,对于共m张训练图片,从1到m不断重复执行下式直到收敛:
θi:=θi-αgt
其中,gt表示随机梯度,满足
表示li对于θi的偏导数,α是下降系数;
步骤3 ,将待识别植物图 像输入到步骤2已 训练好的 深度卷积神经网络中 ,依据输出标
记得到最终识别结果。
2 .根据权利要求1所述基于深度学习和植物分类学的植物识别方法,其特征在于:将收
集的样本植物图像和待识别植物图像输入深度卷积神经网络训练前,应先进行数据增强处
理,数据增强处理至少包括旋转、裁剪、放大;旋转是指将植物图像每旋转n度后进行一次采
样,0<n<360;裁剪是指多次随机多次裁剪植物图像中的一部分后进行采样,应保证裁剪后
( 19 )中华人民 共和国国家知识产权局
( 12 )发明专利申请
(21)申请号 201910079097 .2
(22)申请日 2019 .01 .28
(71)申请人 南京林业大学 地址 210037 江苏省南京市玄武区龙蟠路 159号
(72)发明人 朱悠翔 业宁 李若尘 张政 王香
(74)专利代理机构 南京经纬专利商标代理有限 公司 32200
一种基于深度学Leabharlann 和植物分类学的植物识别方法技术领域 [0001] 本发明涉及植物识别技术领域,具体为一种基于深度学习和植物分类学的植物识 别方法。
背景技术 [0002] 图像识别领域目前一般来说有两类方法,一类是基于传统机器学习的识别方法, 其特点是特征提取方式一般为人工定义 ;另一类是基于深度学 习的 方法 ,其特点是特征依 靠深度卷积神经网络自动提取。然而,前者往往会引入人工偏差,后者会有一定程度的过拟 合问题,影响识别性能。 [0003] 现有专利CN201810030151 .X,公开了一种植物种类识别方法以及装置,其通过获 取待识别植物的花、叶以及整体植株三个部位中的至少两个部位的图片作为待识别图片; 并基于预先保存的多个识别模型分别识别所述待识别图片中的每张图片,得到每个部位的 预测识别结果;然后将所有的预测识别结果进行融合,得到所述待识别植物的种类。本方法 根据叶 、花 和植株整体信息 ,融合利 用整体 和局部信息 ,对植物做精细的 识别分析 ,从而得 出准确的植物分类结果 ,可以让算法更具有鲁棒性 ,用户在使 用该算法时 ,能够较以 往更好 地实现植物分类。该专利使用了跨媒体方法进行识别。 [0004] 现有专利CN201611206559 .5,公开了一种基于深度学习的跨媒体中草药植物图像 检索方法。其步骤如下:1)通过OCR,文本结构化处理,从《植物分类学》等书籍中抽取植物分 类描述文字2)使用中文分词工具,对所有植物分类描述文字进行包括分词和去停用词在内 的预处理;3)用word2vec算法根据描述文本生成词向量;4)使用Fisher Vector将描述文本 进行编码;5)利用卷积神经网络在图片集上进行训练,使网络结构收敛到最优状态;6)提取 卷积 神经网 络的 倒数 第二层全连接层输出 作为图 片特征向 量 ;7) 融 合文本特征 与图 片特 征 ;8) 使用线性核SVM分类器进行模型训练 ;9) 用户检索时可输入图像、描述植物文本 ,之后 利用4)、6)、7)、8)步得到最终的图片检索结果。该专利使用了跨媒体方法。
相关文档
最新文档