首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 484 毫秒
1.
基于改进卷积神经网络的多种植物叶片病害识别   总被引:13,自引:23,他引:13  
针对训练收敛时间长,模型参数庞大的问题,该文将传统的卷积神经网络模型进行改进,提出一种批归一化与全局池化相结合的卷积神经网络识别模型.通过对卷积层的输入数据进行批归一化处理,以便加速网络收敛.进一步缩减特征图数目,并采用全局池化的方法减少特征数.通过设置不同尺寸的初始层卷积核和全局池化层类型,以及设置不同初始化类型和激活函数,得到8种改进模型,用于训练识别14种不同植物共26类病害并选出最优模型.改进后最优模型收敛时间小于传统卷积神经网络模型,仅经过3次训练迭代,就能达到90%以上的识别准确率;参数内存需求仅为2.6 MB,平均测试识别准确率达到99.56%,查全率和查准率的加权平均分数为99.41%.改进模型受叶片的空间位置的变换影响较小,能识别多种植物叶片的不同病害.该模型具有较高的识别准确率及较强的鲁棒性,该研究可为植物叶片病害的识别提供参考.  相似文献   

2.
基于卷积神经网络提取多尺度分层特征识别玉米杂草   总被引:3,自引:10,他引:3  
为提高作物与杂草识别的准确率、稳定性和实时性,该文以幼苗期玉米及杂草为研究对象,提出了基于卷积神经网络提取多尺度分层特征的玉米杂草识别方法。首先建立卷积神经网络模型,以从图像的高斯金字塔中提取多尺度分层特征作为识别依据,再与多层感知器相连接实现图像中各像素的识别;为了避免目标交叠所带来的问题,对图像进行超像素分割,通过计算每个超像素内部的平均像素类别分布确定该超像素块的类别,再将相同类别的相邻超像素合并,最终实现图像中各目标的识别。试验结果表明:该方法的平均目标识别准确率达98.92%,标准差为0.55%,识别单幅图像的平均耗时为1.68 s,采用GPU硬件加速后识别单幅图像的平均耗时缩短为0.72 s。该方法实现了精确、稳定和高效的玉米与杂草识别,研究可为精确除草的发展提供参考。  相似文献   

3.
针对实际复杂田间环境下杂草与作物识别精度低和实时性差的问题,为减少弱光环境对分割识别效果的影响,实现甜菜与杂草的实时精确分割识别,该文首先将可见光图像进行对比度增强,再将近红外与可见光图像融合为4通道图像;将深度可分离卷积以及残差块构成分割识别模型的卷积层,减少模型参数量及计算量,构建编码与解码结构并融合底层特征,细化分割边界。以分割识别精度、参数量以及运行效率为评价指标,通过设置不同宽度系数以及输入图像分辨率选出最优模型。试验结果表明:本文模型的平均交并比达到87.58%,平均像素准确率为99.19%,帧频可达42.064帧/s,参数量仅为525 763,具有较高分割识别精度和较好实时性。该方法有效实现了甜菜与杂草的精确实时识别,可为后续机器人精确除草提供理论参考。  相似文献   

4.
基于空间金字塔池化和深度卷积神经网络的作物害虫识别   总被引:6,自引:5,他引:1  
为了减少因作物害虫姿态多样性和尺度多样性导致其识别精度相对较低的问题,该文将空间金字塔池化与改进的YOLOv3深度卷积神经网络相结合,提出了一种基于空间金字塔池化的深度卷积神经网络农作物害虫种类识别算法,首先对测试图像上的害虫进行检测定位,然后对检测定位出的害虫进行种类识别。通过改进YOLOv3的网络结构,采用上采样与卷积操作相结合的方法实现反卷积,使算法能够有效地检测到图片中体型较小的作物害虫样本;通过对采集到的实际场景下20类害虫进行识别测试,识别精度均值可达到88.07%。试验结果表明,本文提出的识别算法能够有效地对作物害虫进行检测和种类识别。  相似文献   

5.
基于改进DenseNet的田间杂草识别   总被引:3,自引:3,他引:0  
精确、快速地获取作物和杂草的类别信息是实现自动化除草作业的重要前提。为解决复杂环境下农作物田间杂草种类的高效准确识别问题,该研究提出一种基于改进DenseNet的杂草识别模型。首先,在DenseNet-121网络的基础上,通过在每个卷积层后引入ECA(Efficient Channel Attention)注意力机制,增加重要特征的权重,强化杂草特征并抑制背景特征;其次,通过DropBlock正则化随机隐藏杂草图像部分特征块,以提升模型的泛化能力,增强模型识别不同类型杂草的适应性;最后,以自然环境下玉米幼苗和6类伴生杂草作为样本,在相同试验条件下与VGG-16、ResNet-50和未改进的DenseNet-121模型进行对比试验。结果表明,改进的DenseNet模型性能最优,模型大小为26.55 MB,单张图像耗时0.23 s,平均识别准确率达到98.63%,较改进前模型的平均识别准确率提高了2.09%,且综合性能显著高于VGG-16、ResNet-50模型;同时,通过采用CAM(Class Activation Mapping)可视化热度图方法分析,得出改进前后模型的类别判断概率分别为0.68和0.98,本文模型明显高于未改进模型,进一步验证了改进模型的有效性。该模型能够很好地解决复杂环境下农作物和杂草的种类精准识别问题,为智能除草机器人开发奠定了坚实的技术基础。  相似文献   

6.
环境信息感知是智能农业装备系统自主导航作业的关键技术之一。农业田间道路复杂多变,快速准确地识别可通行区域,辨析障碍物类别,可为农业装备系统高效安全地进行路径规划和决策控制提供依据。该研究以非结构化农业田间道路场景为研究对象,根据环境对象动、静态属性进行类别划分,提出一种基于通道注意力结合多尺度特征融合的轻量化语义分割模型。首先采用Mobilenet V2轻量卷积神经网络提取图像特征,将混合扩张卷积融入特征提取网络最后2个阶段,在保证特征图分辨率的基础上增加感受野并保持信息的连续性与完整性;然后引入通道注意力模块对特征提取网络各阶段特征通道依据重要程度重新标定;最后通过空间金字塔池化模块将多尺度池化特征进行融合,获取更加有效的全局场景上下文信息,增强对复杂道路场景识别的准确性。语义分割试验表明,不同道路环境下本文模型可以对场景对象进行有效识别解析,像素准确率和平均像素准确率分别为94.85%、90.38%,具有准确率高、鲁棒性强的特点。基于相同测试集将本文模型与FCN-8S、SegNet、DeeplabV3+、BiseNet模型进行对比试验,本文模型的平均区域重合度为85.51%,检测速度达到8.19帧/s,参数数量为,相比于其他模型具有准确性高、推理速度快、参数量小等优点,能够较好地实现精度与速度的均衡。研究成果可为智能农业装备在非结构化道路环境下安全可靠运行提供技术参考。  相似文献   

7.
基于卷积神经网络的田间多簇猕猴桃图像识别方法   总被引:21,自引:17,他引:4  
为实现田间条件下快速、准确地识别多簇猕猴桃果实,该文根据猕猴桃的棚架式栽培模式,采用竖直向上获取果实图像的拍摄方式,提出一种基于Le Net卷积神经网络的深度学习模型进行多簇猕猴桃果实图像的识别方法。该文构建的卷积神经网络通过批量归一化方法,以Re LU为激活函数,Max-pooling为下采样方法,并采用Softmax回归分类器,对卷积神经网络结构进行优化。通过对100幅田间多簇猕猴桃图像的识别,试验结果表明:该识别方法对遮挡果实、重叠果实、相邻果实和独立果实的识别率分别为78.97%、83.11%、91.01%和94.78%。通过与5种现有算法进行对比试验,该文算法相对相同环境下的识别方法提高了5.73个百分点,且识别速度达到了0.27 s/个,识别速度较其他算法速度最快。证明了该文算法对田间猕猴桃图像具有较高的识别率和实时性,表明卷积神经网络在田间果实识别方面具有良好的应用前景。  相似文献   

8.
准确识别玉米病害有助于对病害进行及时有效的防治。针对传统方法对于玉米叶片病害识别精度低和模型泛化能力弱等问题,该研究提出了一种基于改进卷积神经网络模型的玉米叶片病害识别方法。改进后的模型由大小为3×3的卷积层堆栈和Inception模块与Res Net模块组成的特征融合网络两部分组成,其中3×3卷积层的堆栈用于增加特征映射的区域大小,Inception模块和Res Net模块的结合用于提取出玉米叶片病害的可区分特征。同时模型通过对批处理大小、学习率和dropout参数进行优化选择,确定了试验的最佳参数值。试验结果表明,与经典机器学习模型如最近邻节点算法(K-Nearest Neighbor,KNN)、支持向量机(Support Vector Machine,SVM)和反向传播神经网络(Back Propagation Neural Networks,BPNN)以及深度学习模型如Alex Net、VGG16、Res Net和Inception-v3相比,经典机器学习模型的识别率最高为77%,该研究中改进后的卷积神经网络模型的识别率为98.73%,进一步提高了模型的稳定性,为玉米病害检测与识别的进一步研究提供了参考。  相似文献   

9.
基于改进全卷积网络的棉田冠层图像分割方法   总被引:6,自引:5,他引:1  
针对传统的全卷积网络分割精度低、效果差等问题,该文提出一种结合条件随机场的改进全卷积网络棉田冠层图像分割方法。首先通过提取和学习图像特征对全卷积网络进行训练以优化其分割性能,得到初步分割结果和训练后的全卷积网络模型;接着将初步分割结果以像素和像素对应的分类向量形式输入到条件随机场中,同时结合像素间相对关系构建能量函数再进行训练,对初步分割结果进行优化得到训练后的条件随机场模型;进而通过验证过程对全卷积网络和条件随机场模型参数进一步调优,得到最优的全卷积网络和条件随机场;最后结合最优的全卷积网络和条件随机场实现棉田冠层图像分割并进行试验。试验结果表明:该方法的平均像素准确率为83.24%,平均交并比为71.02%,平均速度达到0.33 s/幅,与传统的全卷积网络分割性能相比分别提升了16.22和12.1个百分点,改进效果明显;与Zoom-out和CRFas RNN(conditional random fields as recurrent neural networks)分割方法进行对比,平均像素准确率分别提升了4.56和1.69个百分点,平均交并比分别提升了7.23和0.83个百分点;与逻辑回归方法和SVM(support vector machine)方法进行对比,平均像素准确率分别提升了3.29和4.01个百分点,平均交并比分别提升了2.69和3.55个百分点。该文方法在背景复杂、光照条件复杂等环境下可以准确分割出冠层目标区域,鲁棒性较好,可为棉花生长状态自动化监测提供参考。  相似文献   

10.
基于改进Multi-Scale AlexNet的番茄叶部病害图像识别   总被引:13,自引:11,他引:2  
番茄同种病害在不同发病阶段表征差异明显,不同病害又表现出一定的相似性,传统模式识别方法不能体现病害病理表征的动态变化,实用性较差。针对该问题,基于卷积神经网络提出一种适用于移动平台的多尺度识别模型,并基于此模型开发了面向农业生产人员的番茄叶部病害图像识别系统。该文详细描述了AlexNet的结构,分析其不足,结合番茄病害叶片图像特点,去除局部响应归一化层、修改全连接层、设置不同尺度卷积核提取特征,设计了基于AlexNet的多感受野识别模型,并基于Android实现了使用此模型的番茄叶部病害图像识别系统。Multi-ScaleAlexNet模型运行所耗内存为29.9MB,比原始AlexNet的内存需求652MB降低了95.4%,该模型对番茄叶部病害及每种病害早中晚期的平均识别准确率达到92.7%,基于此模型的Andriod端识别系统在田间的识别率达到89.2%,能够满足生产实践中移动平台下的病害图像识别需求。研究结果可为基于卷积神经网络的作物病害图像识别提供参考,为作物病害的自动化识别和工程化应用参考。  相似文献   

11.
基于卷积神经网络面部图像识别的拖拉机驾驶员疲劳检测   总被引:4,自引:3,他引:1  
针对疲劳驾驶极易造成拖拉机交通事故这一问题,该文提出了一种基于卷积神经网络面部特征识别的拖拉机驾驶员疲劳检测方法。首先,利用伽马亮度校正对驾驶员面部图像进行光照预处理,再通过小波包去除图像中的椒盐噪声和高斯噪声,对预处理后的图像分别通过PCA-SCM人脸特征识别定位算法和基于人脸核心特征库及肤色模型的人脸识别算法进行驾驶员面部的识别定位,并通过比对这2种算法识别的偏差大小校验算法识别的有效性,以减小拖拉机工作振动时采样对图像中人脸定位精度的影响。将提取到的驾驶员面部图像输入到卷积神经网络进行深度学习和训练,并建立驾驶员疲劳视觉检测模型,从而实现基于拖拉机驾驶员面部图像的疲劳检测。统计训练过程中各项参数变化情况并进行T-SNE降维迭代分析,与其他常规方法相比,CNN在检测准确度和检测效率方面都有较为明显的优势。试验表明,所提出的检测模型准确率98.9%,图片识别效率38 ms/帧(Inter i7-4510U双核处理器),能够实现拖拉机驾驶员疲劳状况的实时检测,该研究可为解决疲劳驾驶这一安全问题提供参考。  相似文献   

12.
番茄器官的实时准确识别是实现自动采摘、靶向施药等自动化生产的关键。该文提出一种基于面向通道分组卷积网络的番茄主要器官实时识别网络模型,该模型直接用特征图预测番茄器官目标边界和类型。以统计可分性、计算速度等为判据,并结合样本扩增训练,分析了该网络和几种典型网络在番茄器官图像处理上的性能,以此筛选出识别网络的基础结构,在基础结构后面分别附加带dropout层的面向通道分组卷积模块和全卷积层作为识别网络的总体架构。试验结果表明:用面向通道分组卷积网络作为识别网络的基础结构,可在显著提高网络召回率、识别速度和精度的前提下,大幅降低模型的大小,该结构网络对花、果、茎识别的平均精度分别为96.52%、97.85%和82.62%,召回率分别为77.39%、69.33%和64.23%,识别速度为62帧/s;与YOLOv2相比,该文识别网络召回率提高了14.03个百分点,精度提高了2.51个百分点。  相似文献   

13.
基于可形变VGG-16模型的田间作物害虫检测方法   总被引:2,自引:1,他引:1  
由于田间害虫种类多,大小、形态、姿态、颜色和位置变化多样,且田间害虫的周围环境比较复杂,使传统田间害虫检测方法的性能不高,而现有基于卷积神经网络的作物害虫检测方法采用固定的几何结构模块,不能有效应用于田间多变的害虫检测。该研究在VGG-16模型的基础上构建了一种可形变VGG-16模型(Deformable VGG-16,DVGG-16),并应用于田间作物害虫检测。在DVGG-16模型中,引入可形变卷积后能够适应不同形状、状态和尺寸等几何形变的害虫图像,提高了对形变图像的特征表达能力,然后利用1个全局平均池化层替代VGG-16模型中的3个全连接层,以加快模型的训练。通过DVGG-16模型与VGG-16模型对比试验发现,DVGG-16模型提升了对田间害虫图像的形状、大小等几何形变的适应能力,在不改变图像空间分辨率的情况下,实现了对不规则田间害虫图像的特征提取,在实际田间害虫图像数据库上的检测准确率为91.14%。试验结果表明,DVGG-16模型提升了VGG-16模型对害虫多样性图像的特征表达能力,具有一定的图像形变适应能力,能够较准确地检测到田间形状变化多样的害虫,可为田间复杂环境下作物害虫检测系统提供技术支持。  相似文献   

14.
为实现植物病害的自动准确识别,该研究提出一种基于神经结构搜索的植物叶片图像病害识别方法,该方法能够依据特定数据集自动学习到合适的深度神经网络结构。采用包含14种作物和26种病害共54 306张的公开PlantVillage植物病害图像作为试验数据,按照4∶1的比例随机划分,分别用于神经结构搜索和测试搜索到的最优网络结构的性能。同时,为探究神经结构搜索对数据平衡问题是否敏感及图像在缺乏颜色信息时对神经结构搜索的影响,对训练数据进行过采样和亚采样平衡处理及灰度变换。试验结果显示,该研究方法在训练样本数据不平衡和平衡时均可以搜索出合适的网络结构,模型识别准确率分别为98.96%和99.01%;当采用未进行平衡处理的灰度图像作为训练数据时,模型识别准确率有所下降,为95.40%。该方法能够实现植物病害的准确识别,为科学制定病害防治策略提供有效的技术手段。  相似文献   

15.
基于低场核磁成像的银杏胚检测及分类   总被引:1,自引:1,他引:0  
银杏胚的有无及发育状况直接影响播种后的发芽率,而这些无法人工检测。该研究基于低场核磁共振成像(Low-field Magnetic Resonance Imaging,LF-MRI)技术,结合深度学习,探索研究银杏种子内部缺陷检测方法。设计了一种基于改进的VGG-16迁移学习图像分类方法,在利用VGG-16卷积层对数据集进行迁移学习时,对模型的学习率、模型结构和归一化3个方面进行改进,比较研究调整初始学习率与更新周期、将全连接层替换为全局卷积层或全局平均池化层并扩展8种微调模型、添加3种归一化层对模型性能的影响。结果表明,全局平均池化层调用方便,能够替代全连接层融合深度特征,提升模型性能;分类输出层置于全局平均池化层后的分类效果较好;组归一化能提升模型性能,并使验证曲线收敛更稳定;学习率对迁移学习模型性能影响极大,使用分段常数衰减策略针对具体应用可有效提高模型性能。相比较VGG-16,该研究构建的基于VGG-Net的银杏种子MR图像识别模型(Ginkgo seed low-field MR images recognition model based on VGG-Net, GV)大小降低89%,参数量降低89%,训练时间减少64%,训练集与验证集损失分别降低64%与45%、准确率分别提高2.4与2.5个百分点,对正常、孔洞、有胚和无胚4个类别的银杏种子平均分类准确率达到97.40%。研究结果为无损监测银杏种子萌发过程、合理预测种子播种后的发芽率提供了思路。  相似文献   

16.
为建立高效、准确的葡萄叶部病害检测系统,引入迁移学习机制,利用大型公开数据集对VGG16模型预训练,保持模型前端13个层的参数和权重不变,对全连接层和分类层改进后利用新数据集微调训练模型,包括对训练优化器、学习率和中心损失函数平衡参数的优选试验,最后将模型部署在Android手机端。试验表明,在微调训练阶段选择Adam优化器、初始学习率设为0.001、中心损失函数平衡参数设为0.12时,改进的VGG16模型性能最优,对葡萄6类叶部图像的分类平均准确率为98.02%,单幅图像平均检测耗时为0.327s。与未改进的VGG16模型相比,平均准确率提高了2.82%,平均检测耗时下降了66.8%,权重参数数量减少了83.4%。改进后的模型综合性能优于AlexNet、ResNet50和Inceptionv3等模型。将模型跨平台部署在Android手机端,自然环境下验证的平均准确率为95.67%,平均检测耗时为0.357 s。该研究建立的基于迁移学习和改进卷积神经网络的病害检测系统可实现对葡萄叶部病害的快速、智能诊断,为葡萄病害的及时防控提供依据。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号