首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 251 毫秒
1.
便携式柑橘虫害实时检测系统的研制与试验   总被引:3,自引:2,他引:1  
为实现柑橘虫害的快速、准确识别,帮助果农及时掌握果园内虫害的危害程度和分布情况,该研究结合嵌入式图像处理技术设计了一套基于深度卷积神经网络的柑橘虫害实时检测系统。优选MoblieNet作为虫害图像特征提取网络,区域候选网络生成害虫的初步位置候选框,快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)实现候选框的分类和定位。检测系统根据目标图像中虫害数量计算危害程度,按照正常、轻度、中度、重度4个等级判定柑橘虫害的严重程度,形成虫害识别与级别定量化测评软件。最后引入北斗模块获取采样点位置信息,进一步处理成可视化的虫害热力图。结果表明,该方法可实现对柑橘红蜘蛛和蚜虫的快速准确检测,识别准确率分别达到91.0%和89.0%,单帧图像平均处理速度低至286ms。该系统实现了柑橘虫害的精准识别与定位,可为农药喷洒作业提供精准信息服务。  相似文献   

2.
融合动态机制的改进型Faster R-CNN识别田间棉花顶芽   总被引:4,自引:4,他引:0  
针对田间密植环境棉花精准打顶时,棉花顶芽因其小体积特性所带来识别困难问题,该研究提出一种改进型更快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)目标检测算法实现大田环境棉花顶芽识别。以Faster R-CNN为基础框架,使用 RegNetX-6.4GF作为主干网络,以提高图像特征获取性能。将特征金字塔网络(Feature Pyramid Network,FPN)和导向锚框定位(Guided Anchoring,GA)机制相融合,实现锚框(Anchor)动态自适应生成。通过融合动态区域卷积神经网络(Dynamic Region Convolutional Neural Networks,Dynamic R-CNN)方法,实现训练阶段检测模型自适应候选区域(Proposal)分布的动态变化,以提高算法训练效果。最后在目标候选区域(Region of Interest,ROI)中引入目标候选区域提取器(Generic ROI Extractor,GROIE)提高图像特征融合能力。采集自然环境7种不同棉花材料总计4 819张图片,建立微软常见物体图像识别库2017(Microsoft Common Objects in Context 2017,MS COCO 2017)格式的棉花顶芽图片数据集进行试验。结果表明,该研究提出的方法平均准确率均值(Mean Average Precision,MAP)为98.1%,模型的处理速度(Frames Per Second,FPS)为10.3帧/s。其MAP在交并比(Intersection Over Union,IOU)为0.5时较Faster R-CNN、RetinaNet、Cascade R-CNN和RepPoints网络分别提高7.3%、78.9%、10.1%和8.3%。该研究算法在田间对于棉花顶芽识别具有较高的鲁棒性和精确度,为棉花精准打顶作业奠定基础。  相似文献   

3.
改进Faster R-CNN的田间苦瓜叶部病害检测   总被引:11,自引:9,他引:2  
为实现在自然环境条件下对苦瓜叶部病害的目标检测,该研究提出了一种基于改进的更快速区域卷积神经网络(Faster Region with Convolutional Neural Network Features,Faster R-CNN)的苦瓜叶部病害目标检测方法。Faster R-CNN以残差结构卷积神经网络Res Net-50作为该次试验的特征提取网络,将其所得特征图输入到区域建议网络提取区域建议框,并且结合苦瓜叶部病害尺寸小的特点,对原始的Faster R-CNN进行修改,增加区域建议框的尺寸个数,并在ResNet-50的基础下融入了特征金字塔网络(Feature Pyramid Networks,FPN)。结果表明,该方法训练所得的深度学习网络模型具有良好的鲁棒性,平均精度均值(Mean Average Precision,MAP)值为78.85%;融入特征金字塔网络后,所得模型的平均精度均值为86.39%,提高了7.54%,苦瓜健康叶片、白粉病、灰斑病、蔓枯病、斑点病的平均精确率(Average Precision,AP)分别为89.24%、81.48%、83.31%、88.62%和89.28%,在灰斑病检测精度上比之前可提高了16.56%,每幅图像的检测时间达0.322s,保证检测的实时性。该方法对复杂的自然环境下的苦瓜叶部病害检测具有较好的鲁棒性和较高的精度,对瓜果类疾病预防有重要的研究意义。  相似文献   

4.
基于波段增强的DeepLabv3+多光谱影像葡萄种植区识别   总被引:2,自引:2,他引:0       下载免费PDF全文
精准获取葡萄种植区分布信息对其精细化管理和优质基地建设具有重要意义,通常大区域种植区识别主要基于遥感影像完成,但葡萄种植区空间位置的分散性和背景环境的复杂性,使得种植区识别的精度不高。该研究基于DeepLabv3+网络,改进网络输入通道数使其能够接受更多的光谱信息,同时构建波段信息增强模块(Band Information Enhancement,BIE),利用各波段特征图之间的相关性生成综合特征,提出了波段信息增强的葡萄种植区识别方法(BIE-DeepLabv3+)。在2016和2019年高分二号影像葡萄种植区数据集上训练网络,在2020年影像上测试其性能,结果表明,改进模型输出结果的平均像素精度和平均交并比分别为98.58%和90.27%,识别效果好于机器学习SVM算法,在深度学习DeepLabv3+模型的基础上分别提高了0.38和2.01个百分点,比SegNet分别提高了0.71和4.65个百分点。BIE-DeepLabv3+模型拥有更大的感受野和捕获多尺度信息特征的同时放大了地物间的差异,能够解决影像中葡萄种植区存在类间纹理相似性、背景和环境复杂等问题,在减少模型参数的同时预测出的葡萄种植区更加完整,且边缘识别效果良好,为较大区域内背景复杂的遥感图像葡萄种植区识别提供了有效方法。  相似文献   

5.
改进Faster R-CNN的群养猪只圈内位置识别与应用   总被引:4,自引:3,他引:1  
群养圈栏内猪只的位置分布是反映其健康福利的重要指标。为解决传统人工观察方式存在的人力耗费大、观察时间长和主观性强等问题,实现群养猪只圈内位置的高效准确获取,该研究以三原色(Red Green Blue,RGB)图像为数据源,提出了改进的快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)的群养猪只圈内位置识别算法,将时间序列引入候选框区域算法,设计Faster R-CNN和轻量化CNN网络的混合体,将残差网络(Residual Network,ResNet)作为特征提取卷积层,引入PNPoly算法判断猪只在圈内的所处区域。对育成和育肥2个饲养阶段的3个猪圈进行24 h连续98 d的视频录像,从中随机提取图像25 000张作为训练集、验证集和测试集,经测试该算法识别准确率可达96.7%,识别速度为每帧0.064 s。通过该算法获得了不同猪圈和日龄的猪群位置分布热力图、分布比例和昼夜节律,猪圈饲养面积的增加可使猪群在实体地面的分布比例显著提高(P<0.05)。该方法可为猪只群体行为实时监测提供技术参考。  相似文献   

6.
基于地块尺度多时相遥感影像的冬小麦种植面积提取   总被引:5,自引:5,他引:0  
针对仅利用单一遥感影像数据获取农作物信息精度不够问题,该文选择冬小麦主产地河南省兰考县乡镇作为研究区,以2017年多时相中分辨率Landsat8 OLI影像和Google earth上下载的亚米级高分影像为遥感数据源,结合光谱差异和农田地块信息实现冬小麦的精确提取。该算法首先构建不同时相决策树模型,分别实现2个时相的冬小麦区域初步提取;其次通过将对高分影像多尺度分割产生的地块信息分别与2个时相冬小麦播种面积初步区域相互叠加,完成地块单元控制下的冬小麦播种面积分地块统计,并通过设定不同统计阈值,分析落在每一地块单元下的冬小麦区域,生成基于地块单元的冬小麦播种面积分布图;最后通过多时相交叉验证,获取最终冬小麦播种区域。结果表明:该方法能更加准确提取冬小麦种植面积,保持较低的误判率(1.3%)水平下,得到较高的提取正确率(95.9%),较通过对比单一Google earth高分辨率影像获取冬小麦精度(85.6%)高,该研究对通过融合多源多时相影像数据获取农作物提供参考。  相似文献   

7.
针对目前日光温室损伤程度的统计方法普遍依靠人工目视导致的检测效率低、耗时长、精确度低等问题,该研究提出了一种基于改进YOLOv5s的日光温室损伤等级遥感影像检测模型。首先,采用轻量级MobileNetV3作为主干特征提取网络,减少模型的参数量;其次,利用轻量级的内容感知重组特征嵌入模块(content aware reassembly feature embedding,CARAFE)更新模型的上采样操作,增强特征信息的表达能力,并引入显式视觉中心块(explicit visual center block,EVCBlock)替换和更新颈部层,进一步提升检测精度;最后将目标边界框的原始回归损失函数替换为EIoU(efficient intersection over union)损失函数,提高模型的检测准确率。试验结果表明,与基准模型相比,改进后模型的参数数量和每秒浮点运算次数分别减少了17.91和15.19个百分点,准确率和平均精度均值分别提升了0.4和0.8个百分点;经过实地调查,该模型的平均识别准确率为84.00%,优于Faster R-CNN、SSD、Centernet、YOLOv3等经典目标检测算法。日光温室损伤等级快速识别方法可以快速检测日光温室的数量、损伤等级等信息,减少设施农业管理中的人力成本,为现代化设施农业的建设、管理和改造升级提供信息支持。  相似文献   

8.
基于SegNet语义模型的高分辨率遥感影像农村建设用地提取   总被引:3,自引:2,他引:1  
针对传统分类算法、浅层学习算法不适用于高空间分辨率遥感影像中农村建筑物信息提取的问题,该文以河北省霸州市高空间分辨率遥感影像WorldView-2为数据源,利用182 064幅128×128像素大小的影像切片为训练样本,选取基于深度卷积神经网络的SegNet图像语义分割算法对遥感影像中的农村建筑物进行提取,并与传统分类算法中的最大似然法(maximum likelihood,ML)和ISO聚类、浅层学习算法中的支持向量机(support vector machine,SVM)和随机森林(random forest,RF)以及深层语义分割算法中的金字塔场景解析网络(pyramid scene parsing network,PSPNet)的试验结果作对比分析。研究结果表明:SegNet不仅能够高效利用高空间分辨率遥感影像中农村建筑物的光谱信息而且还能够充分利用其丰富的空间特征信息,最终形成较好的分类模型,该算法在验证样本中的分类总体精度为96.61%,Kappa系数为0.90,建筑物的F1值为0.91,其余5种分类算法的总体精度、Kappa系数、建筑物的F1值都分别在94.68%、0.83、0.87以下。该研究可以为高空间分辨率遥感影像农村建设用地提取研究提供参考。  相似文献   

9.
水稻重金属污染胁迫光谱分析模型的区域应用与验证   总被引:4,自引:2,他引:2  
根据样地试验建立的农作物重金属污染胁迫光谱分析模型通过卫星遥感数据进行大尺度区域应用是农作物重金属污染遥感评价必须解决的关键问题。该文以吉林长春市3块重金属污染程度不同的水稻农田样地为试验区,采集水稻冠层ASD(Analytical Spectral Devices)数据、叶片叶绿素含量和土壤重金属含量,并获取准同步的Hyperion数据,通过多元逐步回归分析筛选与重金属污染胁迫响应敏感的光谱指数,并运用BP人工神经网络模型构建其与表征重金属污染胁迫程度的叶绿素含量的数学关系模型。结果表明,样地水稻重金属污染胁迫光谱分析模型中的BP网络结构为4-11-7-1、传递函数为logsig,其对各类污染胁迫水平的判别精度均为100%;将所建立的样地水稻重金属污染胁迫光谱分析模型通过Hyperion影像,进行大面积推广并验证,得到其对各类污染胁迫水平的判别精度均超过80%。该研究为样地水稻重金属污染胁迫光谱分析模型的大面积推广应用提供了借鉴意义。  相似文献   

10.
有效的阴影检测和去除算法会大大提高自然环境下果实识别算法的性能,为农业智能化提供技术支持。该研究采用超像素分割的方法,将一张图像分割成多个小区域,在对图像进行超像素分割的基础上,对自然光照下的果园图像阴影区域与非阴影区域进行对比分析,探索8个自定义特征用于阴影检测。然后采用SVM的方法,结合8个自主探索的自定义特征,对图像中每个超像素分割的小区域进行检测,判断每个小区域是否处于阴影中,再使用交叉验证方法进行参数优化。根据Finlayson的二维积分算法策略,对检测的每一个阴影区域进行阴影去除,获得去除阴影后的自然光照图像。最后进行阴影检测的识别准确性试验,试验结果表明,本研究的阴影检测算法的平均识别准确率为83.16%,经过阴影去除后,图像的阴影区域亮度得到了提高,并且整幅图像的亮度更为均匀。该研究可为自然环境下机器人识别果实及其他工农业应用场景提供技术支持。  相似文献   

11.
基于无人机影像自动检测冠层果的油茶快速估产方法   总被引:2,自引:2,他引:0  
快速准确的产量估算对油茶经营管理和可持续发展具有重要意义。该研究针对油茶快速估产的应用现状,提出一种基于无人机影像自动检测冠层果的方法用于油茶快速估产。首先借助无人机航拍影像,通过随机抽样选取120株油茶树进行无人机近景摄影和人工采摘称量;然后利用Mask RCNN(Mask Region Convolutional Neural Networks)网络开展基于近景影像的油茶冠层果自动检测与计数;采用线性回归和K最邻近建立冠层果数与单株果数之间的关系,同时结合研究区典型样木株数和平均单果质量,构建基于冠层果自动检测的估产模型。结果表明:1)无人机超低空近景影像结合Mask RCNN网络能够有效检测不同光照条件油茶果,平均F1值达89.91%;2)同传统卫星遥感相比,基于无人机近景摄影的冠层果自动检测在作物产量估测方面显示出明显优势,Mask RCNN网络预测的冠层果数与油茶样木单株果数之间具有良好的一致性,拟合决定系数R2达0.871;3)结合线性回归和K最邻近构建的模型估产精度均较高,拟合决定系数R~2和标准均方根误差NRMSE(Normalized Root Mean Square Error)分别在0.892~0.913和28.01%~31.00%之间,表明基于无人机影像自动检测冠层果的油茶快速估产是一种切实可行的方法。研究结果可为油茶快速估产和智能监测提供参考。  相似文献   

12.
改进Faster-RCNN自然环境下识别刺梨果实   总被引:16,自引:12,他引:4  
为了实现自然环境下刺梨果实的快速准确识别,根据刺梨果实的特点,该文提出了一种基于改进的Faster RCNN刺梨果实识别方法。该文卷积神经网络采用双线性插值方法,选用FasterRCNN的交替优化训练方式(alternating optimization),将卷积神经网络中的感兴趣区域池化(ROI pooling)改进为感兴趣区域校准(ROI align)的区域特征聚集方式,使得检测结果中的目标矩形框更加精确。通过比较Faster RCNN框架下的VGG16、VGG_CNN_M1024以及ZF 3种网络模型训练的精度-召回率,最终选择VGG16网络模型,该网络模型对11类刺梨果实的识别精度分别为94.00%、90.85%、83.74%、98.55%、96.42%、98.43%、89.18%、90.61%、100.00%、88.47%和90.91%,平均识别精度为92.01%。通过对300幅自然环境下随机拍摄的未参与识别模型训练的刺梨果实图像进行检测,并选择以召回率、准确率以及F1值作为识别模型性能评价的3个指标。检测结果表明:改进算法训练出来的识别模型对刺梨果实的11种形态的召回率最低为81.40%,最高达96.93%;准确率最低为85.63%,最高达95.53%;F1值最低为87.50%,最高达94.99%。检测的平均速度能够达到0.2 s/幅。该文算法对自然条件下刺梨果实的识别具有较高的正确率和实时性。  相似文献   

13.
针对模型训练中数据标注成本过高的问题,提出一种基于无人机图像分析的半监督变色疫木目标检测方法。该方法提出级联抗噪声半监督目标检测模型(Cascade Noise-Resistant Semi-supervised object detection,CNRS),使用抗噪声学习提升模型对伪标签的学习质量;通过级联网络解决训练中正负样本的分布问题;使用ResNet50和特征金字塔网络结构增强模型对多尺寸和小目标疫木的识别能力;在监督学习阶段使用FocalLoss,提升网络对边缘目标和早期疫木等困难样本的学习,使用SmoothL1Loss保证梯度相对稳定;在RCNN阶段使用软化非极大抑制软化检测框剔除过程。该文提出的半监督目标检测模型CNRS使用训练集中半数标注的数据进行训练,试验结果表明,最优模型在测试集上的平均精度(Average Precision,AP)可达87.7%,与Faster RCNN使用完全标注数据相比,标注量减少了50%,且AP提升了2.3个百分点,与同时期最先进的半监督模型Combating Noise相比,AP提升了1.6个百分点。该方法在准确检出多种不同形态疫木的基础上,大幅度降低了数据标注成本,为农林病虫害防治提供了可靠的数据支持。  相似文献   

14.
采用YOLO算法和无人机影像的松材线虫病异常变色木识别   总被引:5,自引:5,他引:0  
松材线虫病是一种传播速度快的毁灭性森林病害,利用无人机遥感及时对松材线虫病病害木进行监测,是控制松材线虫病蔓延的有效方式。该研究利用YOLO算法自动识别无人机遥感影像上的松材线虫病异常变色木,利用深度可分离卷积和倒残差结构改进YOLOv4算法,提高了识别的精度和效率。比较FasterR-CNN、EfficientDet、YOLOv4和YOLOv5与改进的YOLO算法的速度和精度,并分析了改进的YOLO算法在参与训练区域和未参与训练区域的异常变色木的识别效果。试验结果表明,改进后的YOLO算法的平均精度为80.85%,每个迭代周期的训练时间为164s,参数大小为44.2 MB,单张影像的测试时间为17 ms,表现优于Faster R-CNN和YOLOv4,但与EfficientDet和YOLOv5相比有优有劣,综合比较这4个指标,改进算法在检测速度和检测精度上的表现更为平衡。未参与训练区域异常变色木的F1分数(84.18%)略低于参与训练区域(87.92%),但基本满足异常变色木的监测要求。相似地物、林分郁闭度、坡向和分辨率会对识别精度产生影响,但影响较小。因此,改进的YOLO算法精度高、效率高,可用于松材线虫病异常变色木的快速识别,并且对未参与训练区域异常变色木的识别具有较高的适用性。  相似文献   

15.
多尺度特征融合的柑橘冠层施药沉积量分类模型   总被引:2,自引:0,他引:2  
针对传统农作物冠层施药沉积量分类模型分类准确率低、网络模型参数量大且运算速度慢的问题,该研究提出一种改进的SPP-Net-Inception-v4模型。该模型通过构建稀疏网络结构平衡各个模型子网间的计算量,利用3个Inception模块生成施药沉积量在柑橘冠层热红外图像的稠密有效特征数据;在模型的卷积层与全连接层间创新性接入空间金字塔池化网络(Spatial Pyramid Pooling Network, SPP-Net),进行一次历遍提取热红外图像特征信息,再通过空间池化操作融合3种池化方式提取的多尺度特征,实现柑橘冠层热红外图像施药沉积量表现特征的提取与融合。搭建多环境因素自主控制试验环境,模拟无人机低空采集柑橘冠层热红外图像,应用3个分类模型进行对比试验,试验结果表明,SPP-Net-Inception-v4模型与Inception-v4和ResNet-152两种模型相比,准确率分别提高1.58%和3.26%,模型大小分别降低13%和24%,表明SPP-Net-Inception-v4模型在降低模型规模的基础上,提高了柑橘树冠层施药沉积量分类的准确率,可为精准农业航空中无人机植保技术的进一步发展提供参考。  相似文献   

16.
改进YOLOv5测量田间小麦单位面积穗数   总被引:2,自引:2,他引:0  
单位面积穗数是决定小麦产量的主要因素之一。针对人工清点小麦穗数的方法容易受主观因素影响、效率低和图像处理方法鲜有进行系统部署等问题,提出一种注意力模块(Convolutional Block Attention Module,CBAM)与YOLOv5相结合的CBAM-YOLOv5网络结构,通过对特征图进行自适应特征细化,实现更准确的单位面积穗数测量。该研究以本地采集小麦图像数据和网络公开小麦图像数据为数据集,设置输入图像分辨率为1 280,得到CBAM-YOLOv5模型,可以达到0.904的F1分数和0.902的平均精度,测试集计数的平均相对误差为2.56%,平均每幅图像耗时0.045 s,综合对比,CBAM-YOLOv5模型具有显著优势。模型放置于服务器,结合手机端软件和辅助装置,形成单位面积穗数测量系统,实现育种小区麦穗图像实时采集、处理和计数,计数的平均相对误差为2.80%,抗环境干扰性强。该研究方法与装置可以实现田间小麦单位面积穗数的实时在线检测,降低主观误差,具有较高的准确率及较强的鲁棒性,为小麦单位面积穗数快速、准确估测提供一种新的技术和装备支撑。  相似文献   

17.
基于无人机平台的柑橘树冠信息提取   总被引:2,自引:1,他引:1       下载免费PDF全文
为了快速获取柑橘树冠信息,提升柑橘园精准管理,该研究基于无人机平台获取了柑橘数码和多光谱影像,分析了无人机影像反演柑橘树冠信息的效果。首先利用无人机数码影像及分水岭算法进行柑橘单木分割,然后构建柑橘树冠层高度模型,提取柑橘株数、株高、冠幅投影面积等结构参数信息,进而利用无人机多光谱影像获取柑橘的8种常用植被指数,采用全子集分析法筛选柑橘冠层氮素含量的敏感植被指数,构建基于多元线性回归的冠层氮素遥感反演模型,进行以冠幅为基本单元的柑橘树冠层氮素含量遥感制图。研究结果表明:柑橘的单木识别准确率在93%以上,召回率在95%以上,平均F值为96.52%;柑橘树的反演株高与实测株高具有较强的相关性,决定系数R2为0.87,均方根误差为31.9cm;单株冠幅投影面积与人工绘制的冠幅面积的决定系数,除果园A在12月的结果较低(R2为0.78)外,其余均在0.94及以上;采用全子集分析法筛选的柑橘冠层氮素敏感植被指数为归一化植被指数(NDVI)、绿色归一化植被指数和冠层结构不敏感指数,所建立的多元回归模型的决定系数R2达0.82,均方根误差为0.22%,相对误差为6.59%。综上,无人机影像在柑橘树冠参数信息提取方面具有较好的应用效果,能够快速有效地提取柑橘树冠参数信息。该研究可为使用无人机平台进行果园精准管理提供技术支撑。  相似文献   

18.
注意力与多尺度特征融合的水培芥蓝花蕾检测   总被引:4,自引:3,他引:1  
准确辨识水培芥蓝花蕾特征是区分其成熟度,实现及时采收的关键。该研究针对自然环境下不同品种与成熟度的水培芥蓝花蕾外形与尺度差异大、花蕾颜色与茎叶相近等问题,提出一种注意力与多尺度特征融合的Faster R-CNN水培芥蓝花蕾分类检测模型。采用InceptionV3的前37层作为基础特征提取网络,在其ReductionA、InceptionA和InceptionB模块后分别嵌入SENet模块,将基础特征提取网络的第2组至第4组卷积特征图通过FPN特征金字塔网络层分别进行叠加后作为特征图输出,依据花蕾目标框尺寸统计结果在各FPN特征图上设计不同锚点尺寸。对绿宝芥蓝、香港白花芥蓝及两个品种的混合数据集测试的平均精度均值mAP最高为96.5%,最低为95.9%,表明模型能实现不同品种水培芥蓝高准确率检测。消融试验结果表明,基础特征提取网络引入SENet或FPN模块对不同成熟度花蕾的检测准确率均有提升作用,同时融合SENet模块和FPN模块对未成熟花蕾检测的平均准确率AP为92.3%,对成熟花蕾检测的AP为98.2%,对过成熟花蕾检测的AP为97.9%,不同成熟度花蕾检测的mAP为96.1%,表明模型设计合理,能充分发挥各模块的优势。相比VGG16、ResNet50、ResNet101和InceptionV3网络,模型对不同成熟度花蕾检测的mAP分别提高了10.8%、8.3%、 6.9%和12.7%,检测性能具有较大提升。在召回率为80%时,模型对不同成熟度水培芥蓝花蕾检测的准确率均能保持在90%以上,具有较高的鲁棒性。该研究结果可为确定水培芥蓝采收期提供依据。  相似文献   

19.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:3,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号