首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 265 毫秒
1.
为解决自然环境中番茄叶片病虫害检测场景复杂、检测精度较低,计算复杂度高等问题,提出一种SLP-YOLOv7-tiny的深度学习算法。首先,将主干特征提取网络中部分3×3的卷积Conv2D(2D convolution)改为分布偏移卷积DSConv2D(2D Depthwise Separable Convolution),以减少网络的计算量,并且使计算速度更快,占用内存更少;其次,将无参数注意力机制(parameter-free attention module, SimAM)融合到骨干特征提取网络中,加强模型对病虫害特征的有效提取能力和特征整合能力;最后,将原始YOLOv7-tiny的CIOU损失函数,更替为Focal-EIOU损失函数,加快模型收敛并降低损失值。试验结果表明,SLP-YOLOv7-tiny模型整体识别精准度、召回率、平均精度均值mAP0.5(IOU阈值为0.5时的平均精度)、mAP0.5~0.95(IOU阈值从0.5到0.95之间的所有值进行平均计算的平均精度)分别为95.9%、94.6%、98.0%、91.4%,与改进前YOLOv7-tiny相比,分别提升14.7、29.2、20.2、30个百分点,同时,计算量降低了62.6%,检测速度提升了13.2%。与YOLOv5n、YOLOv5s、YOLOv5m、YOLOv7、YOLOv7-tiny、Faster-RCNN、SSD目标检测模型相比,mAP0.5分别提升了2.0、1.6、2.0、2.2、20.2、6.1和5.3个百分点,而计算量大小仅为YOLOv5s、YOLOv5m、YOLOv7、Faster-RCNN、SSD的31.5%、10.6%、4.9%、4.3%、3.8%。结果表明SLP-YOLOv7-tiny可以准确快速地实现番茄叶片病虫害的检测,且模型较小,可为番茄叶片病虫害的快速精准检测的发展提供一定的技术支持。  相似文献   

2.
为解决自然环境中苹果叶片病害检测场景复杂、小目标病害检测难度高以及模型参数大无法在移动端和嵌入式设备部署等问题,提出一种基于YOLOv5s的苹果叶片小目标病害轻量化检测方法。该方法将YOLOv5s的骨干网络更改为ShuffleNet v2轻量化网络,引入CBAM(convolutional block attention module)注意力模块使模型关注苹果叶片小目标病害,添加改进RFB-s(receptive field block-s)支路获取多尺度特征,提高苹果叶片病害检测精度,并更改边界框回归损失函数为SIoU(scylla-intersection over union),增强病斑定位能力。试验表明改进后的YOLOv5s模型在IoU大于0.5时的平均精度均值(mean average precision,mAP0.5)和每秒传输帧数(frame per second,FPS)分别达到90.6%和175帧/s,对小目标的平均检测准确率为38.2%,与基准模型YOLOv5s相比,其mAP0.5提升了0.8个百分点,参数量减少了6.17 MB,计算量减少了13.8 G,对小目标的检测准确率提高了3个百分点。改进后的YOLOv5s目标检测模型与Faster R-CNN、SSD、YOLOv5m、YOLOv7、YOLOv8和YOLOv5s目标检测模型相比,具有最小的参数量和计算量,对小目标病害叶斑病和锈病的检测准确率分别提高了1.4、4.1、0.5、5.7、3.5、3.9和1.5、4.3、1.2、2.1、4、2.6个百分点,该方法为真实自然环境下苹果叶片病害尤其是小目标病害的轻量化检测提供参考依据。  相似文献   

3.
为了快速检测和统计杨梅树的数量,该研究提出了一种基于改进YOLOv7的杨梅树单木检测模型:YOLOv7-ACGDmix。首先,对YOLOv7的可扩展高效长程注意力网络(extended-efficient long-range attention networks, E-ELAN)进行改进,通过融合兼具卷积和注意力机制优势的ACmix(a mixed model that enjoys the benefit of both self-attention and convolution)结构得到AC-E-ELAN模块,提升模型的学习和推理能力,引入可变形卷积(deformable convolutional networks version 2, DCNv2)结构得到DCNv2-E-ELAN模块,增强模型对不同尺寸目标的提取能力;其次,采用内容感知特征重组(content-aware reassembly of features, CARAFE)上采样模块,提高模型对重要特征的提取能力;然后,在主干和头部网络部分添加全局注意力机制(global-attention mechanism, GAM),强化特征中的语义信息和位置信息,提高模型特征融合能力;最后,采用WIoU(wise intersection over union)损失函数减少因正负样本数据不平衡造成的干扰,增强模型的泛化性。在公开数据集上的试验结果表明,YOLOv7-ACGDmix模型的精确率达到89.1%,召回率达到89.0%,平均精度均值(mean average precision, mAP)达到95.1%,F1-score达到89.0%,相比于原YOLOv7模型分别提高1.8、4.0、2.3和3.0个百分点。与Faster R-CNN、SSD、YOLOv8模型相比,改进模型的平均精度均值(mAP0.5)分别提高了9.8、2.2、0.7个百分点。实地采集杨梅树样本数据的检测精确率87.3%、召回率85.7%。试验表明,改进模型为基于无人机影像的杨梅树单木检测提供了一种有效的解决方案,对果园精准管理的发展具有重要意义。  相似文献   

4.
为实现黄花成熟度的快速、高精度识别,针对其相似特征识别精确度低以及相互遮挡检测困难的问题,提出一种基于YOLOv8-ABW的黄花成熟度检测方法。该研究在特征提取网络中加入结合注意力机制的尺度特征交互机制(attention based intra-scale feature interaction, AIFI),更好地提取黄花特征信息,提高检测的精确度。在特征融合网络中,进一步采用加权的双向特征金字塔特征融合网络(bidirectional feature pyramid network, Bi FPN),实现更高层次的跨通道特征融合,有效减少通道中的特征冗余。此外使用WIoUv3作为损失函数,聚焦普通质量的锚框,提高模型的定位性能。试验结果表明:YOLOv8-ABW模型检测精确度为82.32%,召回率为83.71%,平均精度均值mAP@0.5和mAP@0.5:0.95分别为88.44%和74.84%,调和均值提升至0.86,实时检测速度为214.5帧/s。与YOLOv8相比,YOLOv8-ABW的精确度提高1.41个百分点,召回率提高0.75个百分点,mAP@0.5和mAP@0.5:0.95分别提升1.54个百分点和1.42个百分点。对比RT-DETR、YOLOv3、YOLOv5、YOLOv7模型,YOLOv8-ABW参数量最少,仅为3.65×106,且模型浮点运算量比YOLOv7少96.3 G。体现出YOLOv8-ABW 模型能够在黄花成熟度检测中平衡检测精确度和检测速度,综合性能最佳,为黄花智能化实时采摘研究提供技术支持。  相似文献   

5.
针对非结构化环境下香梨识别准确率低,检测速度慢的问题,该研究提出了一种基于改进YOLOv8n的香梨目标检测方法。使用Min-Max归一化方法,对YOLOv3-tiny、YOLOv5n、YOLO6n、YOLOv7-tiny和YOLOv8n评估选优;以YOLOv8n为基线,进行以下改进:1)使用简化的残差与卷积模块优化部分C2f(CSP bottleneck with 2 convolutions)进行特征融合。2)利用simSPPF(simple spatial pyramid pooling fast)对SPPF(spatial pyramid pooling fast)进行优化。3)引入了PConv(partial convolution)卷积,并提出权重参数共享以实现检测头的轻量化。4)使用Inner-CIoU(inner complete intersection over union)优化预测框的损失计算。在自建的香梨数据集上,指标F0.5分数(F0.5-score)和平均精度均值(mean average precision, mAP)比原模型分别提升0.4和0.5个百分点,达到94.7%和88.3%。在GPU和CPU设备上,检测速度分别提升了34.0%和24.4%,达到了每秒99.4和15.3帧。该模型具有较高的识别准确率和检测速度,为香梨自动化采摘提供了一种精确的实时检测方法。  相似文献   

6.
针对目前三七检测算法在复杂田间收获工况下检测精度低、模型复杂度大、移动端部署难等问题,该研究提出一种基于YOLOv5s的轻量化三七目标检测方法。首先,采用GSConv卷积方法替换原始颈部网络的传统卷积,引入Slim-neck轻量级颈部网络,降低了模型复杂度,同时提升了模型精度;其次,使用ShuffleNetv2轻量型特征提取网络对主干网络进行轻量化改进,提升了模型实时检测性能,并采用角度惩罚度量的损失(SIoU)优化边界框损失函数,提升了轻量化后的模型精度和泛化能力。试验结果表明,改进后的PN-YOLOv5s模型参数量、计算量、模型大小分别为原YOLOv5s模型的46.65%、34.18%和48.75%,检测速度提升了1.2倍,F1值较原始模型提升了0.22个百分点,平均精度均值达到了94.20%,较原始模型低0.6个百分点,与SSD、Faster R-CNN、YOLOv4-tiny、YOLOv7-tiny和YOLOv8s模型相比能够更好地平衡检测精度与速度,检测效果更好。台架试验测试结果表明,4种输送分离作业工况下三七目标检测的准确率达90%以上,F1值达86%以上,平均精度均值达87%以上,最低检测速度为105帧/s,实际收获工况下模型的检测性能良好,可为后续三七收获作业质量实时监测与精准分级输送提供技术支撑。  相似文献   

7.
为解决莲田环境下不同成熟期莲蓬的视觉感知问题,该研究提出了一种改进YOLOv5s的莲蓬成熟期检测方法。首先,通过在主干特征网络中引入BoT(bottleneck transformer)自注意力机制模块,构建融合整体与局部混合特征的映射结构,增强不同成熟期莲蓬的区分度;其次,采用高效交并比损失函数EIoU(efficient IoU)提高了边界框回归定位精度,提升模型的检测精度;再者,采用K-means++聚类算法优化初始锚框尺寸的计算方法,提高网络的收敛速度。试验结果表明,改进后YOLOv5s模型在测试集下的精确率P、召回率R、平均精度均值mAP分别为98.95%、97.00%、98.30%,平均检测时间为6.4ms,模型尺寸为13.4M。与YOLOv3、 YOLOv3-tiny、 YOLOv4-tiny、 YOLOv5s、YOLOv7检测模型对比,平均精度均值mAP分别提升0.2、1.8、1.5、0.5、0.9个百分点。基于建立的模型,该研究搭建了莲蓬成熟期视觉检测试验平台,将改进YOLOv5s模型部署在移动控制器Raspberry Pi 4B中,对4种距离范围下获取的莲蓬场景图像...  相似文献   

8.
基于改进YOLOv5s的自然环境下猕猴桃花朵检测方法   总被引:2,自引:2,他引:0  
为实现对猕猴桃花朵的快速准确检测,该研究提出了一种基于改进YOLOv5s的猕猴桃花朵检测模型YOLOv5s_S_N_CB_CA,并通过对比试验进行了精度验证。在YOLOv5s基础上引入C3HB模块和交叉注意力(criss-cross atte ntion,CCA)模块增强特征提取能力,结合样本切分和加入负样本处理方法进一步提升模型精度。改进模型的检测精确率为85.21%,召回率为90%,模型大小为14.6 MB,交并比(intersection over union,IoU)为0.5下的均值平均精度(mAP0.5)为92.45%,比仅进行样本缩放处理的原始YOLOv5s提高了31.91个百分点,检测速度为35.47帧/s,比原始YOLOv5s提高了34.15%。使用改进模型对自然环境下不同天气、晴天不同时段光照强度下的猕猴桃花朵进行检测,结果表明模型检测晴天、阴天下猕猴桃花朵的mAP0.5分别为91.96%、91.15%,比原始YOLOv5s分别高出2.55、2.25个百分点;检测晴天9:00-11:00、15:00-17:00光强下猕猴桃花...  相似文献   

9.
快速精准识别棚内草莓的改进YOLOv4-Tiny模型   总被引:5,自引:5,他引:0  
为了实现棚内草莓果实的快速精准识别,该研究提出一种基于改进YOLOv4-Tiny的草莓检测模型。首先,为了大幅度减少模型计算量,采用轻量型网络GhostNet作为特征提取网络,并在GhostBottleneck结构中嵌入卷积注意力模块以加强网络的特征提取能力;其次,在颈部网络中添加空间金字塔池化模块和特征金字塔网络结构,融合多尺度特征提升小目标草莓的检测效果;最后,采用高效交并比损失作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进YOLOv4-Tiny模型权重大小仅为4.68 MB,平均每幅图片的检测时间为5.63 ms,在测试集上的平均精度均值达到92.62%,相较于原YOLOv4-Tiny模型提升了5.77个百分点。与主流的目标检测模型SSD、CenterNet、YOLOv3、YOLOv4和YOLOv5s相比,改进YOLOv4-Tiny模型平均精度均值分别高出9.11、4.80、2.26、1.22、1.91个百分点,并且模型权重大小和检测速度方面均具有绝对优势,该研究可为后续果实智能化采摘提供技术支撑。  相似文献   

10.
针对油菜生长早期传统人工苗情调查方法效率低、主观意识强,不能满足大面积或经常性高精度苗期调查作业需求的问题,该研究基于无人机影像及机器学习技术,提出一种油菜苗视频流检测模型及计数方法。通过对YOLO系列基础模型添加多头自注意力,用BasicRFB(basic receptive field block)模块替换原有的空间池化结构(spatial pyramid pooling-fast,SPPF)模块,并对Neck部分添加一维卷积及更换下采样方式等,进一步结合DeepSORT(deep simple online and real-time tracking)算法和越线计数技术实现对油菜苗的数量统计。算例测试结果表明,改进后YOLOv5s的交并比阈值0.50的平均精度均值达到93.1%,交并比阈值0.50~0.95的平均精度均值达到了67.5%,明显优于Faster R-CNN、SSD和YOLOX等其他经典目标检测算法,交并比阈值0.50的平均精度均值分别高出14.82、26.37和3.3个百分点,交并比阈值为0.50~0.95范围下的平均精度均值分别高出25.7、33.9和6.7个百分点。油菜苗计数试验结果表明,离线视频计数时,在合理的种植密度区间内,所提算法的油菜苗计数精度平均达到93.75%,计数效率为人工计数的9.54倍;在线实时计数时,在不同天气情况下,计数平台的油菜苗计数精度最大相差1.87个百分点,具有良好的泛化性,满足油菜苗计数实时性要求。  相似文献   

11.
为提高香蕉采摘机器人的作业效率和质量,实现机器人末端承接机构的精确定位,该研究提出一种基于YOLOv5算法的蕉穗识别,并对蕉穗底部果轴进行定位的方法。将CA(Coordinate Attention)注意力机制融合到主干网络中,同时将C3(Concentrated-Comprehensive Convolution Block)特征提取模块与CA注意力机制模块融合构成C3CA模块,以此增强蕉穗特征信息的提取。用 EIoU(Efficient Intersection over Union)损失对原损失函数CIoU(Complete Intersection over Union)进行替换,加快模型收敛并降低损失值。通过改进预测目标框回归公式获取试验所需定位点,并对该点的相机坐标系进行转换求解出三维坐标。采用D435i深度相机对蕉穗底部果轴进行定位试验。识别试验表明,与YOLOv5、Faster R-CNN等模型相比,改进YOLOv5模型的平均精度值(mean Average Precision, mAP)分别提升了0.17和21.26个百分点;定位试验表明,采用改进YOLOv5模型对蕉穗底部果轴定位误差均值和误差比均值分别为0.063 m和2.992%,与YOLOv5和Faster R-CNN模型相比,定位误差均值和误差比均值分别降低了0.022 m和1.173%,0.105 m和5.054%。试验实时可视化结果表明,改进模型能对果园环境下蕉穗进行快速识别和定位,保证作业质量,为后续水果采摘机器人的研究奠定了基础。  相似文献   

12.
为实现自然环境下的板栗果实目标快速识别,该研究以湖北省种植板栗为研究对象,提出了一种基于改进YOLOv8模型的栗果识别方法YOLOv8-PBi。首先,将部分卷积(partial convolution,PConv)引入C2f模块中,缩减卷积过程中的浮点数和计算量;其次,引入加权双向特征金字塔网络(bidirectional feature pyramid network,BiFPN),增强多尺度特征融合性能,最后,更改边界框损失函数为动态非单调聚焦机制WIoU(wise intersection over union,WIoU),提高模型收敛速度,进一步提升模型检测性能。试验结果表明,改进YOLOv8-PBi模型准确率、召回率和平均精度分别为89.4%、74.9%、84.2%;相比原始基础网络YOLOv8s,模型权重减小46.22%,准确率、召回率和平均精度分别提升1.3、1.5、1.8个百分点。部署模型至边缘嵌入式设备上,经过TensorRT加速后,检测帧率达到43 帧/s。该方法可为板栗智能化收获过程中的栗果识别提供技术基础。  相似文献   

13.
针对目前日光温室损伤程度的统计方法普遍依靠人工目视导致的检测效率低、耗时长、精确度低等问题,该研究提出了一种基于改进YOLOv5s的日光温室损伤等级遥感影像检测模型。首先,采用轻量级MobileNetV3作为主干特征提取网络,减少模型的参数量;其次,利用轻量级的内容感知重组特征嵌入模块(content aware reassembly feature embedding,CARAFE)更新模型的上采样操作,增强特征信息的表达能力,并引入显式视觉中心块(explicit visual center block,EVCBlock)替换和更新颈部层,进一步提升检测精度;最后将目标边界框的原始回归损失函数替换为EIoU(efficient intersection over union)损失函数,提高模型的检测准确率。试验结果表明,与基准模型相比,改进后模型的参数数量和每秒浮点运算次数分别减少了17.91和15.19个百分点,准确率和平均精度均值分别提升了0.4和0.8个百分点;经过实地调查,该模型的平均识别准确率为84.00%,优于Faster R-CNN、SSD、Centernet、YOLOv3等经典目标检测算法。日光温室损伤等级快速识别方法可以快速检测日光温室的数量、损伤等级等信息,减少设施农业管理中的人力成本,为现代化设施农业的建设、管理和改造升级提供信息支持。  相似文献   

14.
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   

15.
基于优选YOLOv7模型的采摘机器人多姿态火龙果检测系统   总被引:3,自引:3,他引:0  
为了检测复杂自然环境下多种生长姿态的火龙果,该研究基于优选YOLOv7模型提出一种多姿态火龙果检测方法,构建了能区分不同姿态火龙果的视觉系统。首先比较了不同模型的检测效果,并给出不同设备的建议模型。经测试,YOLOv7系列模型优于YOLOv4、YOLOv5和YOLOX的同量级模型。适用于移动设备的YOLOv7-tiny模型的检测准确率为83.6%,召回率为79.9%,平均精度均值(mean average precision,mAP)为88.3%,正视角和侧视角火龙果的分类准确率为80.4%,推理一张图像仅需1.8 ms,与YOLOv3-tiny、YOLOv4-tiny和YOLOX-tiny相比准确率分别提高了16.8、4.3和4.8个百分点,mAP分别提高了7.3、21和3.9个百分点,与EfficientDet、SSD、Faster-RCNN和CenterNet相比mAP分别提高了8.2、5.8、4.0和42.4个百分点。然后,该研究对不同光照条件下的火龙果进行检测,结果表明在强光、弱光、人工补光条件下均保持着较高的精度。最后将基于YOLOv7-tiny的火龙果检测模型部署到Jetson Xavier NX上并针对正视角火龙果进行了验证性采摘试验,结果表明检测系统的推理分类时间占完整采摘动作总时间的比例约为22.6%,正视角火龙果采摘成功率为90%,验证了基于优选YOLOv7的火龙果多姿态检测系统的性能。  相似文献   

16.
为提高小麦病害检测精度,实现将模型方便快速部署到移动端,该研究提出了一种基于改进YOLOv8的轻量化小麦病害检测方法。首先,使用PP-LCNet模型替换YOLOv8网络结构的骨干网络,并在骨干网络层引入深度可分离卷积(depthwise separable convolution, DepthSepConv)结构,减少模型参数量,提升模型检测性能;其次,在颈部网络部分添加全局注意力机制(global attention mechanism, GAM)模块,强化特征中语义信息和位置信息,提高模型特征融合能力;然后,引入轻量级通用上采样内容感知重组(content-aware reassembly of features,CARAFE)模块,提高模型对重要特征的提取能力;最后,使用Wise-IoU(weighted interpolation of sequential evidence for intersection over union)边界损失函数代替原损失函数,提升网络边界框回归性能和对小目标病害的检测效果。试验结果表明,对于大田环境下所采集的小麦病害数据集,改进后模型的参数量及...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号