一种基于卷积神经网络的草地植物识别方法
一种基于深度学习算法的草地图像自动分割技术研究
一种基于深度学习算法的草地图像自动分割技术研究随着计算机技术的不断发展,深度学习算法在图像处理领域中的应用越来越广泛。
草地图像自动分割技术作为图像处理领域中的一项重要任务,对于草地管理、研究和监测具有广泛的应用价值。
本文将介绍一种基于深度学习算法的草地图像自动分割技术研究。
一、研究背景草地是自然生态系统中重要的一部分,其覆盖面积和数量直接影响全球的生态平衡。
草地的监测和管理需要大量的人力和物力,因此,草地图像自动分割技术的研究具有重要的实际意义。
传统的草地图像分割算法主要是基于阈值分割和区域生长算法,但这些算法只能处理简单的草地图像,对于复杂的草地图像效果不理想。
而深度学习算法可以自动学习图像特征,具有较高的灵活性和准确性,在草地图像分割中具有广泛的应用前景。
二、研究方法本研究采用卷积神经网络(Convolutional Neural Network,CNN)作为草地图像自动分割的核心算法,主要分为以下几个步骤:1.数据集准备构建适合草地图像分割的数据集是实现自动分割的关键。
本研究选取具有代表性的草地图像作为样本,将其裁剪为小块作为输入数据,同时生成对应的标签数据。
对于草地图像的目标区域和背景区域进行标注,生成二值化的标签数据,以便于训练和验证模型。
2.模型设计本研究采用FCN(Fully Convolutional Network)网络结构,设计了基于Residual Block的草地图像分割模型,以便于提高模型的准确性和稳定性。
Residual Block是一种残差学习的方法,通过网络的跨层连接可以提高信息的传递效率和准确率。
3.训练模型本研究采用Keras框架搭建卷积神经网络,以训练数据集为输入,标签数据集为监督信号进行模型训练。
采用Adam优化算法进行模型优化,设置合适的学习率和迭代次数,以得到较好的草地图像分割效果。
4.模型验证本研究采用独立的测试集对模型进行验证评估。
通过计算预测结果与真实标签数据的差异,并计算F1-score评估模型的准确性。
基于卷积神经网络的花卉识别算法研究
基于卷积神经网络的花卉识别算法研究近年来,卷积神经网络(Convolutional Neural Network,CNN)在图像识别领域取得了许多惊人的成果。
其中,基于CNN的花卉识别算法,尤其备受关注。
本文将深入探讨这一领域的研究现状,以及未来的发展方向。
一、基础知识在开始讨论之前,有必要先了解一些基础知识。
首先,卷积神经网络是一种深度学习算法,它的主要特点是具有多层神经元,前一层的输出作为后一层的输入。
其中,卷积层、池化层和全连接层是CNN中最常用的三种层。
卷积层能够对特征图进行滤波操作,提取出特征;池化层则能够对特征图进行降维处理,减少网络参数;全连接层则能够将卷积层和池化层产生的特征进行融合,最终输出分类结果。
另外,花卉识别算法的核心就是分类器。
分类器能够对输入的图像进行分类,识别出该图像属于哪种花卉。
此外,对于花卉识别算法来说,一个关键的问题就是如何提取出花卉图像的特征。
可以考虑直接使用原始像素值,但这种方法效果不佳。
因此,目前研究者们大都使用CNN来提取特征。
二、花卉识别算法的现状目前,花卉识别算法已经发展了许多年,相关的研究论文也十分丰富。
下面,将介绍一些较新的花卉识别算法,并对其进行简单评价。
1. Flower Recognition with Deep Convolutional Neural Networks这篇文章基于CNN模型,使用了多种数据增强技巧,包括旋转、缩放和颜色转换等。
研究者们还使用了交叉验证来评估模型效果。
结果表明,该算法具有较好的识别准确率。
2. Plant Classification using CNN with Transfer Learning from ImageNet这篇文章则是引入了迁移学习的思想。
研究者们使用了在ImageNet数据集上训练出来的模型,然后在花卉数据集上微调。
结果表明,使用迁移学习可以提高花卉识别算法的识别准确率。
3. Deep Learning for Plant Identification Using Leaf Vein Morphometric Features这篇论文则为花卉识别算法提供了一种不同的特征提取方式。
农田杂草识别技术的研究现状及应用
|四川农业与农机/2023年4期|>>>李万福张洪¤陈天虹西南科技大学生命科学与工程学院,四川绵阳摘要:我国是人口大国也是粮食消费大国,保障我国粮食安全生产是关系到国计民生的大事。
杂草是农田作物生产的阻碍之一,而杂草识别技术是实现杂草分布监测、农药精准喷施、杂草精准防除的前提。
本文就几种常见杂草识别技术的研究现状及在常见农田作物中的应用进行了概述,并讨论了杂草识别技术存在的问题及优化措施,以期为我国智能杂草防除系统的建立提供参考。
关键词:杂草识别技术;农田作物;杂草防除*基金项目:国家现代农业产业技术体系四川创新团队油菜草害绿色防控技术集成应用岗位(SCCXTD-2023-03)。
作者简介:李万福(1998年-),在读研究生。
研究方向:农艺与种业。
E-mail :liwanfu347069843@ 。
¤通讯作者:张洪(1983年-),博士,讲师。
研究方向:植物保护。
E-mail :**********************.cn 。
我国的杂草危害十分严重,能造成约10%的作物产量损失。
常见农田杂草防除主要依靠化学药剂防除,然而不科学大面积施用除草剂会造成土壤和作物中农药残留、环境污染、加速杂草群落更替等问题[1]。
因此,寻求生态、高效的除草方法受到广大研究者的关注。
通过杂草识别技术搭配智能除草机器人或精准变量喷洒装置等,能够做到杂草的精准识别和防除,而精准作业的前提便是杂草识别技术。
因此,分析杂草识别技术的研究及应用现状,可为我国农田杂草绿色防治方案的制定提供参考,对实现农业杂草精准防治、农药减量增效、耕地环境保护,具有重要作用[2]。
1杂草识别技术国内外研究现状目前,国内外对于农田杂草识别技术已开展了大量研究,并取得一定成效。
传统的识别技术主要包括机器视觉识别法、光谱分析法和光谱成像法。
当前的研究热点是基于深度学习的识别方法,因其方便、高效而被广泛应用于杂草识别中[3]。
农田杂草识别技术的研究现状及应用
农田杂草识别技术的研究现状及应用近年来,农田杂草给农业生产带来了严重的威胁,对农作物的生长发育、水分和养分的利用,乃至产量和品质均产生负面影响。
因此,研究并应用先进的农田杂草识别技术,成为了提高农田管理的重要手段和途径。
本文将介绍农田杂草识别技术的研究现状,并探讨其在实际应用中的潜力和前景。
一、图像识别技术在农田杂草识别中的应用随着计算机技术和图像处理技术的不断发展,图像识别技术已经成为农田杂草识别的重要手段之一。
通过采集农田中的杂草图像,运用图像处理算法和人工智能技术,可以实现对农田杂草的自动识别和分类。
这种技术具有快速、准确、非破坏性等特点,被广泛应用于农田管理和农作物防治等领域。
在农田杂草识别技术中,深度学习算法是目前应用较为广泛的方法之一。
深度学习模型,如卷积神经网络(CNN)和循环神经网络(RNN),可以学习和提取图像特征,从而实现对不同杂草的准确识别。
同时,随着硬件设备的升级和计算能力的提高,深度学习模型的训练和应用也变得更加高效和可行。
二、农田杂草识别技术的研究现状目前,国内外学者已经开展了大量的农田杂草识别技术研究。
其中,针对不同农作物和不同气候环境下的杂草识别进行了深入研究。
例如,在水稻田中,通过图像采集和图像处理算法,可以有效识别和区分稗草、稻草和谷子等常见杂草。
在小麦田和玉米田中,也通过图像识别技术实现了对草芋、苋菜和谷草等杂草的自动识别。
此外,研究者还开展了杂草图像库的构建和优化工作。
通过采集大量杂草的图像和相关数据,并应用图像处理和特征提取算法,构建了丰富的杂草图像库。
这为杂草识别技术的研究和应用提供了重要的数据支持和参考。
三、农田杂草识别技术的应用前景农田杂草识别技术的应用前景广阔。
一方面,通过采集农田杂草的图像和其他相关数据,建立杂草数据库和图像库,有助于农业部门实时了解农田杂草的分布和数量,为制定杂草防治措施提供科学依据。
另一方面,农田杂草识别技术的推广应用,可以实现对杂草的快速、准确、高效识别,极大提高了农田管理的工作效率和质量。
基于图卷积神经网络的行为识别研究
基于图卷积神经网络的行为识别研究随着智能科技的迅猛发展,行为识别技术在人工智能领域扮演着越来越重要的角色。
成为了当前研究的热点之一。
本文将介绍图卷积神经网络在行为识别中的应用以及相关研究成果。
行为识别是指通过对人体动作、姿态和行为的分析,识别出特定的行为模式。
传统的行为识别方法主要基于手工设计的特征提取和机器学习算法,但这些方法在处理复杂的行为模式时存在着一定的局限性。
与传统方法相比,基于图卷积神经网络的行为识别方法具有更好的抽象能力和泛化能力。
图卷积神经网络是一种能够处理图数据的神经网络模型。
在行为识别中,我们可以将人体姿态序列看作是一个图,其中每个姿态点表示图的一个节点,节点之间的连接表示姿态之间的关系。
通过将图卷积神经网络应用于行为识别中,我们可以有效地学习到姿态之间的空间关系和时间关系,从而更准确地识别出不同的行为模式。
近年来,研究人员提出了多种基于图卷积神经网络的行为识别方法。
例如,一些方法利用图卷积神经网络学习姿态之间的相似性,从而实现行为识别。
另一些方法则将图卷积神经网络与传统的卷积神经网络结合起来,提取姿态的空间和时间特征,并通过后续的分类器进行行为识别。
这些方法在公开的行为识别数据集上取得了较好的识别性能。
然而,基于图卷积神经网络的行为识别研究仍存在一些挑战和问题。
首先,如何选择合适的图结构表示姿态序列仍是一个需要研究的问题。
其次,如何有效地学习图卷积神经网络的参数,以提高行为识别的准确性和效率,也是一个需要进一步研究的问题。
此外,如何将图卷积神经网络应用于实际场景中,仍需要更多的探索和实践。
综上所述,基于图卷积神经网络的行为识别研究在智能科技领域具有广泛的应用前景。
通过充分利用图卷积神经网络的优势,我们可以更准确地识别出不同的行为模式,为智能科技的发展提供有力的支撑。
尽管目前还存在一些挑战和问题,但相信随着研究的深入和技术的进步,基于图卷积神经网络的行为识别方法将会得到进一步的改进和应用。
基于卷积神经网络的花卉识别系统研究
基于卷积神经网络的花卉识别系统研究近年来,人工智能技术的发展突飞猛进。
其中,图像识别技术已经变得越来越成熟,尤其是卷积神经网络(Convolutional Neural Networks,CNN)的出现,让图像识别能力得到了进一步提升。
基于CNN技术,花卉识别系统也得以实现。
花卉识别系统的研究一直备受关注。
这个系统运用卷积神经网络技术对花卉进行图像识别,从而可以自动地识别花卉的种类。
与传统的人工识别方法不同,花卉识别系统不仅能够减轻工作量,而且还可以大大提高识别的准确率。
花卉图像识别系统的实现需要经过一系列的步骤。
首先,在建立系统时需要对花卉图片进行采集、预处理和标注。
其次,需要运用CNN技术进行数据训练和建模。
最后,需要对训练好的模型进行验证和测试。
下面,本文就对这些步骤针对性地进行分析。
一、图像采集和预处理在进行花卉图像识别之前,需要先对花卉图片进行采集和预处理。
一般来说,采集花卉图片可以通过多个途径实现,如从图库中下载、自己拍摄等。
采集完成之后,需要对图片进行预处理,包括尺寸统一、格式转换、降噪等操作。
这些操作可以提高图像的质量、降低后续处理难度,从而更好地利用CNN技术进行识别和分类。
二、CNN模型训练和建模在预处理结束后,花卉图像需要被送入CNN模型进行训练。
通过观察花卉图片的特征,可以将这些图片分组,并对每组数据进行分类和标记。
这可以通过手动分类和标记花卉的方法完成。
例如,可以手动将花卉分为菊花、玫瑰等类型,并对每种类型分别进行训练。
通过这种方式,可以训练出一个集成了人类经验的CNN 模型,从而能够对新的花卉图片进行分类和识别。
三、模型测试与验证在训练结束并生成模型之后,需要对所训练的模型进行测试和验证。
这有两个目的,第一,确认该模型是否能够正常运行;第二,检查该模型的准确率。
在测试阶段,可以通过上传一些花卉图片和验证数据,观察模型的识别能力。
一般来说,模型的准确率根据测试数据的量不同而异。
基于深度卷积-递归神经网络的手绘草图识别方法
第30卷第2期计算机辅助设计与图形学学报Vol.30No.2 2018年2月Journal of Computer-Aided Design & Computer Graphics Feb. 2018基于深度卷积-递归神经网络的手绘草图识别方法赵鹏1,2), 刘杨1,2), 刘慧婷1,2), 姚晟1,2)1) (安徽大学计算智能与信号处理教育部重点实验室合肥 230039)2) (安徽大学计算机科学与技术学院合肥 230601)(zhaopeng_ad@)摘要: 针对现有基于深度学习的手绘草图识别方法直接从整体上提取手绘草图的图像特征, 而忽略了草图中笔画的顺序信息的问题, 利用手绘草图的笔画顺序信息, 将深度卷积神经网络与递归神经网络相结合, 提出一种基于深度卷积-递归神经网络的手绘草图识别方法. 首先按照绘画草图时的笔画顺序提取笔画, 生成多幅子笔画草图, 并形成一个笔画数依次递增的子笔画草图序列; 然后采用深度卷积神经网络依次提取该序列中每一幅子笔画草图的图像特征, 并将提取的图像特征按照原先子笔画草图排列的顺序进行排序, 作为递归神经网络的输入; 最后利用递归神经网络来构建不同图像特征间的时序关系, 以提高手绘草图的识别准确率. 在现有最大的手绘草图数据集TU-Berlin Sketch数据集上的实验结果表明, 文中方法能有效地提升手绘草图的识别准确率.关键词: 手绘草图识别; 深度学习; 笔画顺序信息; 深度卷积神经网络; 递归神经网络中图法分类号: TP391.41 DOI: 10.3724/SP.J.1089.2018.16275A Sketch Recognition Method Based on Deep Convolutional-Recurrent Neural NetworkZhao Peng1,2), Liu Yang1,2), Liu Huiting1,2), and Yao Sheng1,2)1) (Key Laboratory of Intelligent Computing and Signal Processing of Ministry of Education, Anhui University, Hefei 230039)2) (School of Computer Science and Technology, Anhui University, Hefei 230601)Abstract: The existing sketch recognition methods ignore the stroke order information in extracting the fea-ture of the sketch. This paper took the advantage of the stroke order information of the sketch and proposed a sketch recognition method based on deep convolutional-recurrent neural network, which combined the deep convolutional neural network and recurrent neural network. Firstly, the proposed method extracted the strokes of the sketch in sequence and obtained an ordered sequence of subsketches with increasing number of strokes. Secondly, a deep convolutional neural network was adapted to extract the feature of each sub-sketch in the ordered subsketch sequence and an ordered feature sequence was generated. Finally, the or-dered feature sequence was input into a modified recurrent neural network, which constructed the temporal relations among the different subsketches of the same sketch to improve the accuracy of the sketch recogni-tion. The experimental results on the largest freehand sketch dataset which is the TU-Berlin Sketch dataset show that the proposed method can effectively improve the recognition accuracy of freehand sketches.收稿日期: 2017-03-01; 修回日期: 2017-04-24. 基金项目: 国家自然科学基金(61602004, 61472001); 安徽省自然科学基金(1408085MF122, 1508085MF127); 安徽省高校自然科学研究重点项目(KJ2016A041); 安徽大学信息保障技术协同创新中心公开招标课题(ADXXBZ2014-5, ADXXBZ2014-6). 赵鹏(1976—), 女, 博士, 副教授, 硕士生导师, CCF会员, 主要研究方向为智能信息处理、机器学习; 刘杨(1991—), 男, 硕士研究生, 主要研究方向为深度学习; 刘慧婷(1978—), 女, 博士, 副教授, 硕士生导师, 主要研究方向为数据挖掘、机器学习; 姚晟(1979—), 女, 博士, 讲师, 硕士生导师, 主要研究方向为数据挖掘、机器学习.218 计算机辅助设计与图形学学报第30卷Key words: sketch recognition; deep learning; stroke order information; deep convolutional neural network; re-current neural network随着便携式触摸设备的普及, 手绘草图的应用日趋多样化, 越来越多的研究者投入到手绘草图的研究当中, 主要包括手绘草图识别[1-2]、基于手绘草图的图像检索[3]、基于手绘草图的3D模型检索[4]以及法医草图分析[5]等.手绘草图识别仍然极具挑战性, 其原因[6]可归结如下: (1) 手绘草图具有高度抽象和符号化的属性; (2) 由于每个人的绘画水平和能力的差异, 导致同一类别的对象可能在外形和抽象度上相去甚远; (3) 手绘草图中缺乏视觉线索, 不存在颜色和纹理信息.早先的手绘草图识别主要遵循传统的图像分类模式, 即从手绘草图中提取手工特征, 再将该特征送入分类器中分类. 常用的手工特征包括方向梯度直方图(histogram of oriented gradient, HOG)特征[7]、尺度不变特征变换(scale-invariant feature tr-ansform, SIFT)[8]以及形状上下文特征[9]等, 并且经常将这些特征与词袋(bag of words)模型[1]结合, 生成最终的特征表达. 但这些为自然图像设计的手工特征, 并不完全适合于具有抽象性和稀疏性的手绘草图. Li等[10]证明了使用多核学习来融合不同的局部特征, 有助于提高识别性能. Schneider 等[2]将费舍尔向量(Fisher vector, FV)应用于手绘草图识别中, 获得了较高的识别准确率.近几年, 随着深度学习的火热发展, 各类的深度学习模型应运而生, 例如, Alex-Net[11], VGG[12]和ResNet[13]等. 但是, 这些深度学习模型主要针对彩色多纹理自然图像而设计, 而手绘草图当中缺乏颜色和纹理信息, 因此它们并不适用于手绘草图的识别. 手绘草图识别模型Sketch-a-Net[6]是一个专为手绘草图识别而设计的、多尺度多通道的深度神经网络框架, 其利用大量训练数据, 获得了良好的手绘草图识别效果, 但其并未考虑手绘草图中笔画的顺序信息.虽然手绘草图当中不存在颜色和纹理信息, 但是它却存在着自然图像所没有的笔画顺序信息, 这种笔画的顺序信息有助于手绘草图的识别. 因此, 本文针对每一幅手绘草图原图, 按照绘画该草图时的笔画顺序提取笔画, 并生成多幅子笔画草图, 以形成一个笔画数依次递增的子笔画草图序列, 该序列反映出手绘草图中笔画的顺序信息. 针对该子笔画草图序列, 本文将深度卷积神经网络与递归神经网络相融合, 提出了一种基于深度卷积-递归神经网络的手绘草图识别模型(deep-CRNN- sketch). 该模型首先采用深度卷积神经网络(con-volutional neural network, CNN)依次提取序列中每一幅子笔画草图的图像特征; 然后将提取的图像特征以原先子笔画草图排列的顺序进行排序, 并将其作为递归神经网络(recurrent neural network, RNN)的输入; 接着利用RNN为不同的图像特征构建一定的时序关系, 以进一步地提高手绘草图特征的可分辨性; 最后针对RNN的输出特征, 采用支持向量机(support vector machine, SVM)进行训练和识别.1 CNNCNN首次由LeCun等[14]提出, 典型的CNN由卷积层和空间池化层交替排列组成, 它们通常连接着全连接层(fully connected, FC)和softmax分类器, 如图1所示. 其中, 卷积层和空间池化层的输出都是一组二维矩阵, 称为特征图.在卷积层中, 上一层的特征图与当前层的卷积核进行卷积操作, 同一卷积层的卷积核可以有多个. Simonyan等[12]证明了一组堆叠的小尺寸卷积核比一个相同参数规模的大尺寸卷积核具有图1 CNN结构示意图第2期赵 鹏, 等: 基于深度卷积-递归神经网络的手绘草图识别方法 219更强的非线性表达能力. 每个卷积核将在特征图上进行扫描, 每个扫描窗口的计算结果是一个加权和. 线性矫正函数[15]是最常用的激活函数之一, 它可以有效地抑制误差反向传播算法中梯度消失效应的发生. 本文使用线性矫正函数作为激活函数, 则卷积操作的计算公式为()()()1max ,0, 1,2,,I j r ij r i r j i b j J =⎛⎫=*+= ⎪⎝⎭∑ yk x . 其中, 假设输入特征图的个数为I , 输出特征图的个数为J , 则i x 表示第i 个输入特征图, j y 表示第j 个输出特征图, ijk 表示ix 和jy 之间的卷积核,*表示卷积操作, jb 表示第j 个输出特征图的偏置值, 上标()r 表示卷积区域.在池化层中, 池化核的扫描方式一般是不重叠的. Goodfellow 等[16]提出最大池化函数作为空间池化层的激活函数, 其在每次池化的过程中直接选取感受野区域的最大值作为池化操作的结果. 这种池化方式使模型具有更好的抗噪能力, 同时也降低了特征的维度.在全连接层, 通常加入dropout 模块[17], 可以有效地避免训练过程中过拟合的发生.2 RNNRNN [18]主要应用于手写识别[19]以及语音识 别[20]等. 近几年, RNN 在自然语言处理领域应用获得了较大的进展[21]. 将CNN 与RNN 相结合应用于自然图像的表示和识别[22], 获得了良好的效果. 不同于其他仅包含前馈连接的神经网络, RNN 包含了反馈连接, 因此具有很强的“记忆”功能. RNN 最先被设计用来构建时间序列数据的相关性, 因为在网络的隐含层部分, 包含一个从前一个状态到当前状态的反馈连接, 通过这个反馈连接, RNN 模型就可以保留历史输入的信息, 从而构建2个不同时间状态信息的相互关系.传统的RNN 包括输入层、隐含层和输出层3个部分, 如图2所示.图2 RNN 结构示意图RNN 的输入一般为有限长度的时间序列, 假设图2中的网络输入是一段包含S 个状态的时间序列, 则()s x , ()s h 和()s y 分别表示序列中第s 个状态的输入, 隐含层和输出, ih w , hh w 和ho w 是3组连接权值, 其中hh w 连接的是(1)s -h 和()s h . ()s h 和()s y 的计算公式分别为 ()h ih h ()()(1)h ih hh h (),1(),2,3,,s s s s f s f s S -⎧+=⎪=⎨++=⎪⎩ w x b hw x w h b(1)()()o ho o (),1,2,,y w h b =+= s s f s S . 其中, h b 和o b 分别是隐含层和输出层的偏置值,h f 和o f 通常是非线性的激活函数.3 本文方法概述区别于CNN 与RNN 相结合的方法[22], 本文的工作主要体现在3点: (1) 本文方法是针对有笔画顺序信息的手绘草图的识别, 而文献[22]是针对自然图像的分类; (2) 本文方法中RNN 的输入是图像特征序列, 序列中的图像特征提取自不同的子笔画草图, 而文献[22]中RNN 的输入是像素点序列, 且序列中的所有像素点来自于同一幅图像; (3) 本文方法中的RNN 构建的是图像特征间的时序关系, 而文献[22]中RNN 构建的是像素点之间的空间位置关系.3.1 手绘草图的笔画提取本文所采用的实验数据集为Eitz 等[1]组织和收集的目前最大的手绘草图集, 该数据集有2种格式的版本, 一种是png 格式的手绘草图图像, 另一种是svg 格式的手绘草图图像. 本文通过编写程序提取svg 格式的手绘草图图像的笔画, 构建出多幅svg 格式的子笔画草图; 然后利用格式转换工具将所有svg 格式的子笔画草图转换成png 格式, 这些png 格式的子笔画草图按照笔画数从少到多的顺序排列即可反映出手绘草图中笔画的顺序信息.子笔画草图中的笔画个数依赖于手绘草图原图的总笔画数以及所提取的子笔画草图的个数. 图3a 所示为一幅样本原图, 它的总笔画数为19笔, 假设对其提取出4幅子笔画草图, 则第1幅子笔画草图包含前5笔, 第2幅包含前10笔, 第3幅包含前15笔, 最后1幅包含所有的19笔, 分别如图3b~图3e 所示. 假设对样本原图提取出3幅子笔画草图, 则第1幅子笔画草图包含前7笔, 第2幅包含前13笔, 第3幅包含所有的19笔.220 计算机辅助设计与图形学学报第30卷b. 子笔画草图1c.子笔画草图2a. 样本原图d. 子笔画草图3e.子笔画草图4图3 样本原图与子笔画草图的示例3.2深度CNN提取图像特征由于手绘草图缺乏颜色和纹理信息, 专门为彩色多纹理图像而设计的经典深度学习模型并不完全适合于手绘草图的识别.而文献[23]中的Deep-Sketch对经典的深度学习模型进行了改进,采用了更大的首层卷积核, 更大的dropout等, 使之更适用于手绘草图的特征提取. 因此, 本文采用已训练好的Deep-Sketch模型[23]的前11层网络结构作为本文deep-CRNN-sketch模型中的深度CNN模块, 用于提取各子笔画草图的图像特征. 图4即为deep-CRNN-sketch模型中深度CNN模块的示意图. 该模块一共包含7层卷积层、3层空间池化层和1层全连接层, 其中C表示卷积层, S表示空间池化层, FC表示全连接层, 图中最左边的一层表示输入图像. 每层卷积层都采用线性矫正函数作为激活函数, 空间池化层则以最大池化函数作为激活函数, FC1层输出的512维的特征向量即为提取的图像特征. 图4中位于上方的数值表示当前层特征图的尺寸, 例如, 第1层中的225表示输入图像的像素尺寸为225×225, 下方的数值表示当前层特征图的个数.图4 deep-CRNN-sketch模型中的深度CNN模块示意图3.3 RNN构建时序关系由于来源于同一幅手绘草图图像的各子笔画草图在内容上具有较强的相似性和关联性, 并且所形成的笔画数依次递增的子笔画草图序列能够反映出手绘草图中笔画的顺序信息, 因此, 针对深度CNN提取出的各子笔画草图的图像特征, 本文采用RNN为其构建一定的时序关系, 以提高手绘草图的识别准确率.deep-CRNN-sketch模型中的RNN模块以子笔画草图的图像特征序列作为输入, 在该图像特征序列中只有最后一个图像特征提取自完整的手绘草图图像, 而其余的图像特征都提取自只包含部分笔画的子笔画草图; 因此只有最后一个图像特征存在目标标签, 而其余的图像特征并没有相应的目标标签. 然而传统的RNN的输出层一般与样本标签相联系, 因此本文RNN模块中舍去了输出层和连接权值how, 只保留下输入层、隐含层以及连接权值ihw和hhw, 并且以隐含层的特征表达作为RNN模块的输出, 隐含层的特征表达()sh的计算如式(1)所示.由于本文RNN模型的作用是用来构建多个图像特征间的时序关系, 而构建相互关系只需要保证输入序列中的所有图像特征采用完全相同的连接权值进行计算即可, 故本文以随机初始化ihw和hhw的权值作为最终的连接权值. 本文RNN的隐含层激活函数为sigmoid激活函数, 为了保证隐含层的特征表达向量具有较高的可分辨性, 初始化权值需满足均值为0, 方差较小的高斯分布.3.4 deep-CRNN-sketch全模型deep-CRNN-sketch模型一共包含2个阶段, 第1阶段针对提取的各子笔画草图, 采用深度CNN分别提取相应的图像特征; 第2阶段针对图像特征所构成的序列, 采用RNN构建其时序关系, 并将RNN的输出特征送入分类器中训练或者测试. 下面以图5所示提取出4幅子笔画草图为例, 详细介绍deep-CRNN-sketch模型.第2期赵 鹏, 等: 基于深度卷积-递归神经网络的手绘草图识别方法 221图5 deep-CRNN-sketch 模型结构示意图图5中的4幅子笔画草图首先输入到图4中的深度CNN 当中, 得到4个不同的子笔画草图图像特征, 如图5a 所示. 然后将该4个图像特征按序排列, 作为RNN 模块的输入, 序列中的每个图像特征都会对应生成一个隐含层特征表达, 分别用(1)h , (2)h , (3)h 和(4)h 表示, 这4个隐含层特征表达的维度与隐含层神经元的个数一致. 最后将该4个隐含层特征表达按序连接起来, 作为最终的手绘草图特征, 并输入到SVM 中, 如图5b 所示.4 实验结果与分析4.1 实验数据和参数设置2012年, Eitz 等[1]组织和收集了一个目前最大的手绘草图集, 它含有250类手绘草图, 其中每个类各包含有80幅不同的手绘草图, 草图的原始像素大小为1111×1111, 示例如图6所示. 实验过程中采用4折交叉验证, 3份用于训练, 1份用于测试. 实验的评价指标为所有测试样本的识别准确率.深度学习需要大量的训练数据, 缺少训练数据容易产生过拟合的问题. 为了减少过拟合的影图6 手绘草图数据集示例响, 本文对实验所用的手绘草图数据集进行人工扩展, 获得一个新的扩增数据集, 具体步骤如下:Step1. 降维. 将所有的手绘草图图像从原始的像素大小1111×1111降维到256×256.Step2. 提取切片. 从每个像素为256×256的区域的中心、左上角、左下角、右上角和右下角各提取出1个像素大小为225×225的切片, 总共获得5个切片; 其中所有位于中心的像素大小为225×225的切片构成了原始数据集.Step3. 水平翻转. 将Step2获得的5个切片都进行一次水平方向的翻转, 再次获得5个新的切片.Step2和Step3所获得的每个样本的10个切片构成了扩增数据集, 因此扩增数据集的数据量为原始数据集的10倍.本文所有的实验全部是在CPU 为3.60 GHz 、内存为32.0 GB 的PC 上完成的, 其中子笔画草图222计算机辅助设计与图形学学报 第30卷的提取是在Linux 系统下完成的, 而deep-CRNN- sketch 模型的构建以及SVM 的训练和测试全部是在Windows 系统下的MATLAB R2013a 上完成的.deep-CRNN-sketch 模型的深度CNN 模块的具体参数设置参见文献[23], RNN 模块中的连接权值ih w 和hh w 的初始化满足高斯分布, 其中均值μ=0,方差通常取值较小, 第4.2节中的第3组实验对其不同取值进行了对比实验. 隐含层的激活函数为sigmoid 激活函数.4.2 实验结果及分析本文分别设计了4组对比实验. 第1组实验将文献[23]中的Deep-Sketch 模型与本文提出的deep-CRNN-sketch 模型相比较, 分别在原始数据集和扩增数据集上进行识别准确率的对比; 第2组实验讨论所提取的子笔画草图的个数对于识别准确率的影响, 分别对每幅手绘草图图像提取出2幅子笔画草图、3幅子笔画草图和4幅子笔画草图进行对比实验, 实验在扩增数据集上进行; 第3组实验讨论RNN 中, 初始化连接权值ih w 和hh w 的方差σ对于识别准确率的影响, 实验在扩增数据集上进行; 第4组实验将本文deep-CRNN-sketch 模型与其他主流的手绘草图识别方法进行对比.第1组实验将文献[23]中的Deep-Sketch 模型与本文deep-CRNN-sketch 模型相对比, 实验分别在原始数据集和扩增数据集上进行. 实验结果如表1所示, 其中deep-CRNN-sketch 模型中提取的子笔画草图个数设为3幅, 初始化权值ih w 和hh w 的方差σ均设为0.02, RNN 的隐含层神经元个数设为2000. 该实验结果表明, 引入手绘草图中的笔画顺序信息有助于手绘草图的识别, 并且也反映出RNN 对于具有时序关联的数据具有较强的处理能力, 能够有效地表达出数据间的时序关系. 从实验结果中还可以看出, 2组模型在扩增数据集上的效果都要比在原始数据集上的效果好, 说明人工地扩大数据集能够减少过拟合的影响, 提高模型训练的有效性和识别的正确率.第2组实验讨论所提取的子笔画草图的个数表1 deep-CRNN-sketch 与Deep-Sketch 模型对比 %识别准确率模型原始数据集扩增数据集 deep-CRNN-sketch 68.9671.80Deep-Sketch 65.80 69.20 提升3.16 2.60对于识别准确率的影响. 实验分别对每幅手绘草图图像提取出2~4幅子笔画草图. 针对每种子笔画草图个数的取值, 又分别设计了5组对比实验. 这5组对比实验中, 初始化RNN 模块的权值ih w 和hh w 的方差σ都设为0.02; 隐含层神经元个数设置如表2所示; 实验只在扩增数据集上进行, 实验结果如表2所示. 从表2中可以看出, 这5组对比实验中, 提取出3幅子笔画草图的识别准确率全部高于提取出2幅子笔画草图和4幅子笔画草图的识别准确率. 分析原因, 在绘画草图的过程中, 可能大多数人习惯将所绘的图像内容大致分成3个部分来进行绘画. 当提取的子笔画草图数过少时, 引入的笔画顺序信息过少; 当提取的子笔画草图数过多时, 引入的笔画顺序信息过多, 会过拟合绘画者细节部分的笔画顺序, 造成识别准确率的略微下降. 从表2中还可以看出, 当隐含层神经元的个数达到2000个左右时, 取得的实验效果比较好, 其中3幅子笔画草图在神经元个数为2000时达到最好的实验效果, 识别准确率为71.80%.表2 子笔画草图的个数对识别准确率的影响 %子笔画草图个数隐含层神经元个数2 3 41 600 70.58 71.14 70.82 1 800 70.74 71.40 70.92 2 000 70.8271.80 71.00 2 200 70.8871.52 70.74 2 400 70.3471.34 71.12第3组实验讨论RNN 中初始化连接权值ih w 和hh w 的方差σ对于识别准确率的影响, 实验在扩增数据集上进行, 提取的子笔画草图个数为3, 方差σ分别取值为0.01,0.02和0.03, 实验结果如表3所示. 从表3中可以看出, 当σ=0.02时, 识别准确率略好于方差σ取值为0.01和0.03的识别准确率. 分析原因, 当方差σ取值过小时, 表示权值的取值范围较小, 容易导致隐含层的特征表达向量中元素之间的取值差异较小, 使得特征向量的可分辨性降低; 当方差σ取值过大时, 容易导致特征表达向量中过多的元素取值接近0或者1, 同样降低了特征向量的可分辨性. 从表3还可以看出, 3组方差同时在隐含层神经元个数达到2000时取得最好的识别准确率, 分别为71.62%, 71.80%和71.72%.第2期赵 鹏, 等: 基于深度卷积-递归神经网络的手绘草图识别方法 223表3 初始化方差σ对识别准确率的影响 %初始化方差σ隐含层神经元个数0.01 0.02 0.031 600 71.14 71.14 70.80 1 800 71.26 71.40 71.062 000 71.6271.80 71.72 2 200 71.38 71.52 71.34 2 400 71.1271.34 71.12第4组实验将本文提出的deep-CRNN-sketch 模型与其他一些主流的手绘草图识别方法如HOG-SVM [1], SIFT-Fisher Vector [2], MKL-SVM [10], FV-SP [2]和Alex-Net [11]进行对比, 实验结果如表4所示. 与传统的非深度学习方法HOG-SVM, SIFT- Fisher Vector, MKL-SVM 以及FV-SP 相比, 本文方法的识别准确率分别提升了15.8%, 10.3%, 6.0%和2.9%, 该结果表明, 与非深度学习方法相比, 深度学习方法具有更强的特征提取和非线性表达的能力. 与经典的深度学习模型Alex-Net 相比, 识别准确率提升了5.6%, 该结果可以表明: (1) 针对彩色多纹理自然图像而设计的经典深度学习模型, 并不完全适用于缺乏颜色和纹理信息的手绘草图的识别; (2) 引入手绘草图中的笔画顺序信息有助于提升手绘草图的识别准确率.表4 deep-CRNN-sketch 模型与现有方法的对比 %方法识别准确率HOG-SVM 56.00SIFT-Fisher Vector 61.50MKL-SVM 65.80FV-SP 68.90Alex-Net 66.20deep-CRNN-sketch 71.805 结 语本文将手绘草图的笔画顺序信息引入到基于深度学习的手绘草图识别中, 融合深度CNN 与RNN, 提出基于深度卷积-递归神经网络的手绘草图识别模型deep-CRNN-sketch. 该模型中用深度CNN 提取各子笔画草图的图像特征, RNN 为多个图像特征构建一定的时序关系, 以提高手绘草图的识别准确率. 实验结果表明, 与现有的主流方法相比, 本文提出的deep-CRNN-sketch 模型获得了较高的识别准确率.参考文献(References):[1] Eitz M, Hays J, Alexa M. How do humans sketch objects?[J].ACM Transactions on Graphics, 2012, 31(4): Article No.44 [2] Schneider R G , Tuytelaars T. Sketch classification and classifi-cation-driven analysis using Fisher vectors[J]. ACM Transac-tions on Graphics, 2014, 33(6): Article No.174[3] Eitz M, Hildebrand K, Boubekeur T, et al . Sketch-based imageretrieval: Benchmark and bag-of-features descriptors[J]. IEEE Transactions on Visualization and Computer Graphics, 2011, 17(11): 1624-1636[4] Wang F, Kang L, Li Y . Sketch-based 3D shape retrieval usingconvolutional neural networks[C] //Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Los Alamitos: IEEE Computer Society Press, 2015: 1875-1883 [5] Klare B, Li Z F, Jain A K. Matching forensic sketches to mugshot photos[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(3): 639-646[6] Yu Q, Yang Y X, Song Y Z, et al . Sketch-a-net that beats hu-mans[OL]. [2017-03-01]. /abs/1501.07873v3 [7] Xiang Zheng, Tan Hengliang, Ma Zhengming. Performancecomparison of improved HOG , Gabor and LBP[J]. Journal of Computer-Aided Design & Computer Graphics, 2012, 24(6): 787-792(in Chinese)(向 征, 谭恒良, 马争鸣. 改进的HOG 和Gabor, LBP 性能 比较[J]. 计算机辅助设计与图形学学报, 2012, 24(6): 787- 792)[8] Lowe D G . Distinctive image features from scale-invariantkeypoints[J]. International Journal of Computer Vision, 2004,60(2): 91-110[9] Carneiro G, Jepson A D. Pruning local feature correspondencesusing shape context[C] //Proceedings of the 17th InternationalConference on Pattern Recognition. Los Alamitos: IEEE Com-puter Society Press, 2004, 3:16-19[10] Li Y , Hospedales T M, Song Y Z, et al . Free-hand sketch rec-ognition by multi-kernel feature learning[J]. Computer Visionand Image Understanding, 2015, 137: 1-11[11] Krizhevsky A, Sutskever I, Hinton G E. ImageNet classifica-tion with deep convolutional neural networks[C] //Proceedings of the 25th International Conference on Neural Information Processing Systems . Cambridge: MIT Press, 2012: 1097-1105 [12] Simonyan K, Zisserman A. Very deep convolutional networksfor large-scale image recognition[OL]. [2017-03-01]. http:// /abs/1409.1556v6[13] He K M, Zhang X Y , Ren S Q, et al . Deep residual learning forimage recognition[OL]. [2017-03-01]. /abs/- 1512.03385v1[14] LeCun Y , Boser B, Denker J S, et al . Backpropagation applied224 计算机辅助设计与图形学学报第30卷to handwritten zip code recognition[J]. Neural Computation, 1989, 1(4): 541-551[15] Glorot X, Bordes A, Bengio Y. Deep sparse rectifier neuralnetworks[C] //Proceedings of the 14th International Conference on Artificial Intelligence and Statistics. Cambridge: MIT Press, 2011, 15: 315-323[16] Goodfellow I J, Warde-Farley D, Mirza M, et al. Maxout net-works[OL]. [2017-03-01]. /abs/1302.4389v4 [17] Srivastava N, Hinton G, Krizhevsky A, et al. Dropout: a simpleway to prevent neural networks from overfitting[J]. The Journal of Machine Learning Research, 2014, 15(1): 1929- 1958 [18] Carpenter G A, Grossberg S. A massively parallel architecturefor a self-organizing neural pattern recognition machine[J].Computer Vision, Graphics, and Image Processing, 1987, 37(1): 54-115[19] Graves A, Liwicki M, Fernandez S, et al. A novel connectionistsystem for unconstrained handwriting recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2009, 31(5): 855-868 [20] Graves A, Mohamed A R, Hinton G. Speech recognition withdeep recurrent neural networks[C] //Proceedings of the IEEE International Conference on Acoustics, Speech and Signal Processing. Los Alamitos: IEEE Computer Society Press, 2013: 6645-6649[21] Graves A, Jaitly N. Towards end-to-end speech recognitionwith recurrent neural networks[C] //Proceedings of the Interna-tional Conference on Machine Learning. Cambridge: MIT Press, 2014: 1764-1772[22] Zuo Z, Shuai B, Wang G, et al. Convolutional recurrent neuralnetworks: learning spatial dependencies for image representa-tion[C] //Proceedings of the IEEE Conference on Computer Vi-sion and Pattern Recognition Workshops. Los Alamitos: IEEE Computer Society Press, 2015: 18-26[23] Zhao Peng, Wang Fei, Liu Huiting, et al. Sketch recognitionusing deep learning[J]. Journal of Sichuan University: Engine- ering Science Edition, 2016, 48(3): 94-99(in Chinese)(赵鹏, 王斐, 刘慧婷, 等. 基于深度学习的手绘草图识别[J]. 四川大学学报: 工程科学版, 2016, 48(3): 94-99)。
基于贝叶斯卷积神经网络的害虫图像识别方法
基于贝叶斯卷积神经网络的害虫图像识别方法园林害虫的防治任务是生态环境保护中最重要的工作之一。
随着退耕还林以及城镇绿化政策的发展,人们对生活环境的要求不断提高,园林植物的害虫防治显得尤为重要。
园林害虫的种类繁多,人工识别的成本颇高,同时难度颇大。
随着计算机视觉技术的兴起,很多方法都被应用到识别园林害虫图像中,并且在害虫图像识别、分类的任务上取得了较好的成果,其中包括一些传统的图像特征提取方式,如:视觉词袋框架(bag-of-words,BOW)以及SIFT(Scale Invariant Feature Transform)特征检测等。
近几年来,伴随着深度学习的发展,各种深层次的网络结构逐渐进入人们的视线,其中卷积神经网络(Convolutional Neural Network,CNN)被广泛应用于各种的分类任务中。
由于CNN能够自动的提取图像中的特征,并且随着不断的训练,能够提取出高级、抽象的特征,因此具有较强的表达能力,取得了更好的分类效果。
传统的CNN中的权重参数是使用点估计来表示,也就是所有的权重都是某个确定的数值,并且通过反向传播等方法更新权重值。
训练过程中使用dropout以及正则化等技术来防止出现过拟合现象,在实际应用中取得了较好的效果。
但是从概率学习的角度来看,传统的CNN也存在着一定的弊端,例如:少量数据集上容易发生过拟合现象,并且对于训练集中没有训练的类别的数据,CNN会做出过于自信的分类结果,无法很好的的评估训练数据中的不确定性,在一定程度上缺少泛化能力。
本文提出一种基于贝叶斯方法的卷积神经网络(Bayesian Convolutional Neural Network,BCNN)对常见的几种园林害虫图像进行分类,传统的CNN中的每个权重参数都是点估计的形式,也就是权重值是某个值。
但是在BCNN中,每个权重都是以一个高斯分布的形式来进行初始化,通过变分等方法来近似后验分布、训练网络,更新每个概率分布的参数。
基于卷积神经网络的植物病害识别技术研究
基于卷积神经网络的植物病害识别技术研究植物病害一直是农业生产中的一个重要问题,对农作物的健康生长和高产高效产生了极大的威胁。
因此,研究如何快速而准确地识别植物病害显得尤为重要。
由于植物病害的种类繁多,传统的人工识别方法存在效率低下、准确度不高的问题,因此人们开始尝试利用计算机视觉技术来解决这一难题。
本文将介绍基于卷积神经网络的植物病害识别技术研究。
一、卷积神经网络的基础知识卷积神经网络(Convolutional Neural Network, CNN)是一种用于图像、语音和自然语言处理等领域的深度学习算法。
CNN产生于1980年代,但是直到2012年Alex Krizhevsky使用CNN参加ILSVRC竞赛获胜,使得CNN方法引起了广泛关注。
与传统的神经网络不同,CNN对图像进行了特殊的处理,即在输入层中进行卷积运算,进而得到更加复杂的特征,从而提高了准确性。
二、基于CNN的植物病害识别技术卷积神经网络广泛应用于计算机视觉领域中的图像识别任务,而植物病害识别往往是一个典型的图像识别问题。
因此,基于CNN的植物病害识别技术的研究逐渐受到了大家的关注。
2.1 数据集的准备在进行植物病害识别之前,需要先准备一个足够大的数据集。
数据集的收集和准备过程是一个繁琐的工作,需要尽可能避免样本不均衡的问题。
为此,有许多先例可供参考,例如:PlantVillage、Plant-Desease-Dataset等。
2.2 图像预处理对于采集得到的植物病害图像,需要进行预处理以去除噪声、调整亮度等。
预处理的目的是使图像更适合进行卷积神经网络的训练。
2.3 模型的训练基于CNN的植物病害识别技术的模型训练通常采用迭代方式。
在每一次迭代中,CNN模型将通过正向传播和反向传播学习特征。
其中,正向传播是指从输入到输出的计算,反向传播是指根据误差反向调整权重的过程。
最终可以得到一个用于识别植物病害的训练好的卷积神经网络模型。
基于机器学习的植物自动识别技术研究
基于机器学习的植物自动识别技术研究随着科技的不断发展,越来越多的领域开始运用机器学习技术,而植物自动识别技术也不例外。
植物是生命中不可或缺的一部分,而对植物的研究和保护也越来越受到人们的关注。
利用机器学习技术,可以实现植物识别的自动化,提高识别的准确度和效率,为生物多样性保护和植物科学研究提供更好的技术支持。
一、机器学习在植物自动识别中的应用基于机器学习的植物自动识别技术可以分为三个步骤:图像处理、特征提取和分类识别。
首先,对于获取的植物图像,需要通过预处理技术去除噪声和背景干扰。
然后,对处理后的图像进行特征提取,提取出图像中植物的形状、颜色、纹理等特征。
最后,根据提取出的特征,利用机器学习算法进行分类识别,将植物分为不同的种类。
目前,已有很多相关研究在这方面做出了重要的贡献。
例如,在 2019 年,一篇名为《一体化的植物识别系统》的论文中提出了一种基于深度学习的植物识别系统。
该系统采用了卷积神经网络 (CNN) 技术,对提取出的植物图像特征进行分类识别,实现了高效而准确的自动识别。
二、机器学习在植物科学研究中的应用除了在植物自动识别方面,机器学习技术也可以应用于植物科学研究。
例如,基于机器学习的植物病害诊断技术可以帮助农民及时发现病害,防止病害扩散。
此外,机器学习还可以应用于植物组学研究中,帮助识别植物基因序列中的功能区域,进一步探索植物的基因和代谢途径。
三、机器学习技术在植物保护领域的重要性随着全球生物多样性的严重下降,植物保护工作变得越来越重要。
而机器学习技术的应用,为植物保护提供了更多的技术手段。
例如,利用机器学习技术可以对野生植物进行自动化监测,及时发现并处理野生植物病害、害虫等问题。
同时,在许多植物保护区或植物园中,也可以利用机器学习技术对植物进行自动化识别,对所收集的植物加以分类整理和记录,从而更好地保护和研究这些植物。
总结:机器学习技术在植物自动识别及相关领域的应用,为植物科学研究以及植物保护工作提供了更为有效和高效的技术手段。
基于深度卷积神经网络的植物病虫害识别
数据库技术Database Technology电子技术与软件工程Electronic Technology & Software Engineering 基于深度卷积神经网络的植物病虫害识别李哲潘维张赍(江苏同德信息有限公司江苏省连云港市210000 )摘要:本文中的植物病虫害图片识别技术通过这种卷积神经网络方法进行数据处理、模型训练、模型选择,最后应用于病虫害识别,非常快速、准确。
关键词:深度卷积神经网络;植物病虫害;识别方法过去农民通常依靠视觉判断和一些肉眼可见的症状来判断作物是否生病,例如看叶片是否枯萎、发黄发褐等呈现一定的规律,但是当作物出现上述显著的症状时,通常意味着疾病已经发生:而且病虫害种类繁多、情况复杂,即便人类专家也难以覆盖全部情况。
基于深度卷积神经网络的图像识别能力和泛化性,本文设计了一套深度卷积神经网络来实现针对中草药饮片图像的品类识别。
1基本原理在图像识别领域,C N N (卷积神经网络)已经成为一种高准确率的识别方法,可以提取图像的高层次表达。
同时基于端到端(e n d-to-e n d)的卷积神经学习避免了人工规则的中间步骤,不再需求传统特征工程提取图像特征和进行特定的特征选取。
基于端到端的方法以图片直接作为输入,图片中的每个像素都直接作为输入值,不再局限于特定的应用和繁琐的特征工程,可以快速方便的训练成应用模型。
2材料采集真实世界的10多种植物共38多种常见病虫害情况下植物叶子的原始图像,通过不同角度、光线针对不同药材饮片进行人量的拍摄以及线上爬虫搜索的方式得到大量原始图片,然后每种药材饮片根据检索及筛去重复,每张图片中包含饮片的数量、背景复杂 程度、分辨度、大小不限。
3方法3.1 数据增强(d a t a a u g m e n t a t i o n)对图片使用随机剪裁、翻转(左右上下)、颜色抖动(color jitter)、旋转、平移、缩放等方式,对图片进行不同维度的修改。
用深度学习识别草地上的动物
用深度学习识别草地上的动物草地是大自然里的一片绿洲,盘踞着众多的动物。
从小昆虫、爬行动物到飞禽走兽,这里物种繁多,各色各样。
那么有没有一种方法,能够通过计算机视觉识别这些动物呢?现在随着深度学习技术在计算机视觉领域的应用,我们可以使用深度学习来实现这一目标。
深度学习是机器学习的一种,它模仿人类的神经网络,可以识别、分类、识别或生成输入数据的模型。
在草地识别动物的场景中,我们可以借助深度学习的模型来训练计算机,从而实现识别草地上动物的目的。
深度学习训练模型需要准备数据,这些数据是训练模型的基础。
我们可以通过采集视频或者图像来获取草地上的动物数据。
收集数据时,需要尽可能多地采集不同种类的动物,保证数据的多样性。
这样一来,我们就可以用这些数据来训练我们的深度学习模型,以便让计算机具有识别动物的能力。
训练深度学习模型需要用到算法,这些算法可以被归为监督学习和非监督学习。
监督学习中常见的算法包括卷积神经网络(CNN)和循环神经网络(RNN)等。
这些算法根据输入的草地图片和对应的动物标签进行训练,通过增加训练数据,调整神经网络的结构,优化训练策略等方式来提高模型的准确率。
非监督学习的算法不需要标签数据,它们通过学习数据内在分布来学习特征。
例如,自组织映射(Self-Organizing Maps)和对比度敏感算法(Contrastive Sensitivity)等算法可以用于有监督或无监督的学习问题。
在训练完成后,我们可以使用训练得到的模型来测试我们的算法。
有了模型后,我们就可以将草地图片作为输入,让模型自动识别出图像中的动物。
通过深度学习模型的识别,我们也可以做一些实际的应用。
例如,可以利用深度学习技术帮助动物保护人员检测动物安全和动物生态,甚至可以用于采集个体动物信息。
此外,深度学习在识别动物的同时,还可以其他的一些方面。
例如,可以分析草地中的环境变化,了解草地上动物的生态行为。
此外,深度学习还可以帮助我们在保护动物的过程中减少对其的干扰,保证野生动物的生存环境。
融合注意力机制的YOLOv5深度神经网络杂草识别方法
在图表识别中,数据集的准备是至关重要的一步。为了提高模型的泛化能力, 我们需要收集包含各种类型图表的数据集,并将这些数据进行预处理,如数据清 洗、特征选择和转换等操作。在数据清洗阶段,我们需要对数据进行筛选、去重、 标注等操作,以提高模型的训练效果;在特征选择和转换阶段,我们需要对图像 进行预处理,如灰度化、二值化、缩放等操作,以减少模型训练的复杂度。
本次演示提出的融合注意力机制的YOLOv5深度神经网络杂草识别方法主要包 括两个部分:一是通过引入注意力机制对原始YOLOv5模型进行改进;二是利用改 进后的模型进行杂草识别实验,并对实验结果进行分析。
2、实验设计
(1)数据集准备
为了验证本次演示提出的杂草识别方法的有效性,我们收集了一个包含不同 种类、不同生长阶段杂草的图片数据集。数据集涵盖了多种复杂的背景和光照条 件,旨在测试模型的泛化能力和鲁棒性。
为了解决这些问题,本次演示提出了一种融合注意力机制的YOLOv5深度神经 网络杂草识别方法。该方法通过引入注意力机制,提高了模型对杂草特征的提取 能力,同时增强了模型对复杂背景的鲁棒性。这将为农业生产提供一种更加高效、 准确的杂草识别方法,有助于提高农作物产量和降低生产成本。
二、方法与实验设计
1、方法介绍
融合注意力机制的YOLOv5深度神经 网络杂草识别方法
目录
01 一、背景与意义
03 三、结果与讨论
02 二、方法与实验设计 04 参考内容
随着科技的发展,在农业领域的应用越来越广泛。其中,深度神经网络在杂 草识别方面的应用已经成为了一个研究热点。本次演示提出了一种融合注意力机 制的YOLOv5深度神经网络杂草识别方法,旨在提高杂草识别的准确率和鲁棒性。
注意力机制
注意力机制是一种在深度学习领域广泛应用的机制,它通过赋予神经网络对 关键信息的能力,提高模型的性能。在安全帽佩戴检测中,注意力机制可以帮助 模型更好地图像中的帽子区域,从而降低其他因素的干扰,提高检测准确性。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Conv2 + ReLU2 Pool1 LRN1
FC3 + ReLU3 FC4 + ReLU4 SOFTMAX
属性
卷积核数量:16 卷积核尺寸:3
步长:1 核尺寸:3 步长:2 局部尺寸:4
卷积核数量:16 卷积核尺寸:3
步长:1 核尺寸:3 步长:2 局部尺寸:4
Grassland Plant Identification Method Based on Convolutional Neural Network
Zhongqi Cao1, Lulu Liu1*, Xiaoyan Kang1, Aiwu Zhang1, Shatuo Chai2
1College of Resource Environment and Tourism, Capital Normal University, Beijing 2Animal Husbandry and Veterinary Hospital of Qinghai University, Xining Qinghai
DOI: 10.12677/airr.2018.73016
136
人工智能与机器人研究
曹中奇 等
使得进入网络的每一批次的数据都不尽相同,变相的丰富了数据量,防止网络过拟合。
2.1. 图像预处理增强
当拍摄者从俯视角度获取植物照片时,植物影像势必会由于拍摄者位置方位不同产生不固定的旋转 偏移。此外,受拍照时的光照强度、遮盖、阴影等影响也会引起数据集影像信息的波动。本文通过多种 图像增强手段对植物图像进行预处理以消除这些影响(图 2)。具体步骤为随机加窗、图像大小调整、随机 翻转、灰度调整。
曹中奇 等 收稿日期:2018年8月7日;录用日期:2018年8月23日;发布日期:2018年8月30日
摘要
现有对草地植物的图像识别主要集中于对叶片或大面积种群的识别,很少有从单株植物或小片群落的角 度进行识别。本文针对上述问题,总结出三种适用于解决该问题的识别方法,改进和微调了现有基于卷 积神经网络方法的预处理流程和网络模型来进行植物图像识别方法。本文采用近距离拍摄的高空间分辨 率草地植物图片,设计实验对比分析了上述三种方法在识别标注样本数据集上的表现。实验结果表明, 基于预训练模型的深度卷积神经网络方法同其他方法相比,在准确性上,具有显著的优越性。
2.2. 基于自选网络的识别方法
本文首先尝试使用表 1 所示的网络结构进行图像识别。该网络基于经典的 Lenet-5 [19]模型,在其基 础上进行了一些改进。
1) 将原本 5 × 5 的卷积核替换成两个级联的 3 × 3 卷积核。 2) 参考 AlexNet [11],在 CNN 中使用重叠的最大池化,让池化层的步长比池化核的尺寸小。 3) 学习 AlexNet [11],使用修正线性单元(Rectified linear unit, ReLU)作为激活函数。 4) 增加局部相应归一化层(LRN),对局部神经元的活动创建竞争机制。
现有的针对草地的精细分类通常采用混合像元分解、端元提取的方式,处理航天航空遥感获得的地 面光谱数据,空间分辨率很有限,限制了草地植物的识别,而前人对草地植物的识别多集中于大面积的 种群识别。本文从全局特征、PCA + SVM (主成分分析法+支持向量机)、深度卷积神经网络三种方法出发, 通过对比试验,对数据集中的草地植物进行分类检测,提高检测精度,为草地植物分类检测提供便利。 本文采用地面采集的数据,空间分辨率较高,可以做到单株植物的识别。
Open Access
1. 引言
关于青海省的植物种类及其特征[1]-[6]、植物识别[7] [8] [9]等方面的研究都取得了突破性的研究成果。 但传统的遥感图像分类方法在进行植物识别时,由于图像具有较高的空间分辨率,会出现同物异谱等问 题。植物的识别是复杂度高且数据量大的一项研究,因此深度学习在植物识别方面具有技术优势和广阔 的发展前景。卷积神经网络[10] [11] [12] [13] [14] (Convolutional Neural Network, CNN)是深度学习研究中 具有代表性并且十分高效的方法之一。最早的卷积神经网络模型是由纽约大学的 Yann LeCun 教授提出来 的[15]。经过了整整 20 年的发展,至今卷积神经网络技术已在计算机视觉领域确立了统治地位。
Keywords
Grass Image Classification, Global Features, PCA, CNN
一种基于卷积神经网络的草地植物 识别方法
曹中奇1,刘路路1*,康孝岩1,张爱武1,柴沙驼2
1首都师范大学资源环境与旅游学院,北京 2青海大学畜牧兽医院,青海 西宁
*通讯作者。
文章引用: 曹中奇, 刘路路, 康孝岩, 张爱武, 柴沙驼. 一种基于卷积神经网络的草地植物识别方法[J]. 人工智能与 机器人研究, 2018, 7(3): 135-146. DOI: 10.12677/airr.2018.73016
3. 青海地区草地植物图片识别方法实验
3.1. 图片采集和样本库构建
3.1.1. 图片采集 实验室通过自主集成的手持多光谱图像采集设备,于 2017 年 8 月 11 日至 8 月 18 日在青海省海北州
关键词
草地图像识别,全局特征,主成分分析,卷积 by authors and Hans Publishers Inc. This work is licensed under the Creative Commons Attribution International License (CC BY). /licenses/by/4.0/
裁切,并调整大小;(d) 图像随机翻转
Table 1. A modified convolutional neural network model based on Lenet-5 model 表 1. 基于 Lenet-5 模型改进的卷积神经网络模型各层属性表
层名 层1
层2 层3 层4 层5
层级结构
Figure 1. Flow chart of grassland vegetation image recognition method based on convolution neural network 图 1. 基于卷积神经网络的草地植物图像识别方法流程图
DOI: 10.12677/airr.2018.73016
针对植物图片数据量过少的问题,本文尝试使用经过海量数据集预先训练好的模型作为网络的超参 数,并在其基础上用少量植物样本数据进行微调,获得适合与解决本文研究任务的分类模型。具体本文 选择 Google 提出的 Inception_v4 模型[20]作为我们的预训练网络,将该模型学习好的参数输送到网络中 作为初始参数,修改最后分类层的输出个数对应本文研究对象的类别数目。固定前面几层的参数,只学 习最后的 Logis 层和 Aux_logits 层。最后用实验室的带标签的草类数据集微调模型。
2. 基于深度卷积神经网络的草地植物识别方法
本文使用的算法流程如图 1 所示。实验室实地采集获得青海地区 6000 余幅多光谱草地影像数据。有 别于一般在划分数据集之前就进行图像预处理的做法,本文选择将预处理步骤放在训练前。这样做的好 处一是保留测试集本身的客观性(没有经过人为处理),二是可以通过程序随机生成预处理所用方法的参数,
137
人工智能与机器人研究
曹中奇 等
Figure 2. A schematic diagram of the process of plant image preprocessing (a): initial input image; (b): random framing effect; (c): cut the image according to the frame and adjust the size; (d): image is randomly flipped 图 2. 植物图像预处理过程示意图。(a) 初始输入影像;(b) 随机加框效果;(c) 将图像按框
Lopatin 等[16]使用地面高光谱仪器距地面 2.5 米的高度采集草地植物影像,证明在低结构异质性环 境下,高空间分辨率的高光谱遥感适用于基于个体的草地植物物种分类。Shang 等[17]分析了不同种类草 地植被叶片高光谱数据的原始特征和灰度共生矩阵的纹理特征,设计了一种基于植被特征库的植物精细 分类算法。Meyer 等[18]用机器学习技术测试了高光谱和多光谱在现场测定的适用性,成果映射出在区域 范围内的植被覆盖和地上生物量。
Artificial Intelligence and Robotics Research 人工智能与机器人研究, 2018, 7(3), 135-146 Published Online August 2018 in Hans. /journal/airr https:///10.12677/airr.2018.73016
Received: Aug. 7th, 2018; accepted: Aug. 23rd, 2018; published: Aug. 30th, 2018
Abstract
The existing image recognition of grassland plants is mainly focused on the identification of leaves or large area populations, and few of them are identified from the angle of single plant or small community. In this paper, three identification methods for solving the problem are summarized, and the process of preprocessing and network model based on the existing convolution neural network methods are improved and adjusted to carry out the method of plant image recognition. In this paper, the high spatial resolution grassland plant pictures are taken near the distance, and the performance of the above three methods on the identified annotation sample data sets is compared and analyzed. The experimental results show that the method of deep convolution neural network based on pre-training model is superior to other methods in identifying the accuracy of the data set of the labeled sample.