首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 187 毫秒
1.
基于改进RetinaNet的果园复杂环境下苹果检测   总被引:1,自引:1,他引:0  
为了快速准确地检测重叠、遮挡等果园复杂环境下的苹果果实目标,该研究提出一种基于改进RetinaNet的苹果检测网络。首先,该网络在传统RetinaNet的骨干网络ResNet50中嵌入Res2Net模块,提高网络对苹果基础特征的提取能力;其次,采用加权双向特征金字塔网络(Bi-directional Feature Pyramid Network,BiFPN)对不同尺度的特征进行加权融合,提升对小目标和遮挡目标的召回率;最后,采用基于焦损失(Focal Loss)和高效交并比损失(Efficient Intersection over Union Loss,EIoU Loss)的联合损失函数对网络进行优化,提高网络的检测准确率。试验结果表明,改进的网络在测试集上对叶片遮挡、枝干/电线遮挡、果实遮挡和无遮挡的苹果检测精度分别为94.02%、86.74%、89.42%和94.84%,平均精度均值(mean Average Precision,mAP)达到91.26%,较传统RetinaNet提升了5.02个百分点,检测一张苹果图像耗时42.72 ms。与Faster-RCNN和YOLOv4等主流目标检测网络相比,改进网络具有优异的检测精度,同时可以满足实时性的要求,为采摘机器人的采摘策略提供了参考。  相似文献   

2.
基于改进YOLOv3的果园复杂环境下苹果果实识别   总被引:5,自引:4,他引:1  
为使采摘机器人能够全天候的在不同光照、重叠遮挡、大视场等果园复杂环境下对不同成熟度的果实进行快速、准确的识别,该研究提出了一种基于改进YOLOv3的果实识别方法。首先,将DarkNet53网络中的残差模块与CSPNet(Cross Stage Paritial Network)结合,在保持检测精度的同时降低网络的计算量;其次,在原始YOLOv3模型的检测网络中加入SPP(Spatial Pyramid Pooling)模块,将果实的全局和局部特征进行融合,提高对极小果实目标的召回率;同时,采用Soft NMS(Soft Non-Maximum Suppression)算法代替传统NMS(Non-Maximum Suppression)算法,增强对重叠遮挡果实的识别能力;最后,采用基于Focal Loss和CIoU Loss的联合损失函数,对模型进行优化,提高识别精度。以苹果为例进行的试验结果表明:经过数据集训练之后的改进模型,在测试集下的MAP(Mean Average Precision)值达到96.3%,较原模型提高了3.8个百分点;F1值达到91.8%,较原模型提高了3.8个百分点;在GPU下的平均检测速度达到27.8帧/s,较原模型提高了5.6帧/s。与Faster RCNN、RetinaNet等几种目前先进的检测方法进行比较并在不同数目、不同光照情况下的对比试验结果表明,该方法具有优异的检测精度及良好的鲁棒性和实时性,对解决复杂环境下果实的精准识别问题具有重要参考价值。  相似文献   

3.
采用改进YOLOv4-tiny的复杂环境下番茄实时识别   总被引:7,自引:7,他引:0  
实时识别番茄的成熟度是番茄自主采摘车的关键功能。现有目标识别算法速度慢、对遮挡番茄和小番茄识别准确率低。因此,该研究提出一种基于改进YOLOv4-tiny模型的番茄成熟度识别方法。在头部网络(Head network)部分增加一个76×76的检测头(y3)来提高小番茄的识别准确率。为了提高被遮挡番茄的识别准确率,将卷积注意力模块(Convolution Block Attention Module,CBAM)集成到YOLOv4-tiny模型的骨干网络(Backbone network)部分。在深层卷积中使用Mish激活函数替代ReLU激活函数以保证提取特征的准确性。使用密集连接的卷积网络(Densely Connected Convolution Networks, DCCN)来加强全局特征融合,并建立红风铃番茄成熟度识别的数据集。试验结果表明,与YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m和YOLOv5l模型相比,改进YOLOv4-tiny-X模型的平均精度均值(mean Average Precision, mAP)分别提高了30.9、0.2、0.7、5.4和4.9个百分点,在Nvidia GTX 2060 GPU 上达到111帧/s的速度,平均精度均值达到97.9%。不同模型的实时测试可视化结果表明,改进模型能够有效解决遮挡和小番茄识别准确率低的问题,可为番茄采摘车研制提供参考。  相似文献   

4.
基于改进型YOLOv4-LITE轻量级神经网络的密集圣女果识别   总被引:9,自引:9,他引:0  
对密集圣女果遮挡、粘连等情况下的果实进行快速识别定位,是提高设施农业环境下圣女果采摘机器人工作效率和产量预测的关键技术之一,该研究提出了一种基于改进YOLOv4-LITE轻量级神经网络的圣女果识别定位方法。为便于迁移到移动终端,该方法使用MobileNet-v3作为模型的特征提取网络构建YOLOv4-LITE网络,以提高圣女果果实目标检测速度;为避免替换骨干网络降低检测精度,通过修改特征金字塔网络(Feature Pyramid Networks,FPN)+路径聚合网络(Path Aggregation Network,PANet)的结构,引入有利于小目标检测的104×104尺度特征层,实现细粒度检测,在PANet结构中使用深度可分离卷积代替普通卷积降低模型运算量,使网络更加轻量化;并通过载入预训练权重和冻结部分层训练方式提高模型的泛化能力。通过与YOLOv4在相同遮挡或粘连程度的测试集上的识别效果进行对比,用调和均值、平均精度、准确率评价模型之间的差异。试验结果表明:在重叠度IOU为0.50时所提出的密集圣女果识别模型在全部测试集上调和均值、平均精度和准确率分别为0.99、99.74%和99.15%,同比YOLOv4分别提升了0.15、8.29个百分点、6.54个百分点,权重大小为45.3 MB,约为YOLOv4的1/5,对单幅416×416像素图像的检测,在图形处理器(Graphics Processing Unit,GPU)上速度可达3.01 ms/张。因此,该研究提出的密集圣女果识别模型具有识别速度快、识别准确率高、轻量化等特点,可为设施农业环境下圣女果采摘机器人高效工作以及圣女果产量预测提供有力的保障。  相似文献   

5.
畜牧业自动化管理面临的一个关键挑战是如何准确地检测大规模放牧养殖牲畜的种群,确定其数量和实时更新群体信息。牲畜规模化、自动化检测受环境场地等因素影响,当前目标检测算法经常出现漏检、误检等情况。该研究基于YOLOV5s目标检测网络设计了一种牲畜检测算法LDHorNet(livestock detect hor net),参考HorNet的递归门控卷积设计了HorNB模块对网络模型进行改进,以提高检测算法的空间交互能力和检测精度。然后在网络结构中嵌入CBAM(convolutional block attention module)注意力机制,以提高小目标的检测精度和注意力权重,并利用Repulsion 损失函数提高目标检测网络的召回率和预测精度。试验结果表明,所提出的LDHorNet算法的精准率、召回率分别为95.24%、88.87%,平均精准率均值mAP_0.5、mAP_0.5:0.95分别为94.11%、77.01%,比YOLOv5s、YOLOv8s、YOLOv7-Tiny精准率分别提高了2.83、2.93和9.79个百分点,召回率分别提高了6.66和4.95、13.42个百分点,平均精准率均值mAP_0.5:0.95分别提高12.46、5.26和20.97个百分点。该算法对于小目标和遮挡场景下的牲畜检测效果优于原算法与对比算法,表现出良好的鲁棒性,具有广泛的应用前景。  相似文献   

6.
群猪检测是现代化猪场智慧管理的关键环节。针对群猪计数过程中,小目标或被遮挡的猪只个体易漏检的问题,该研究提出了基于多尺度融合注意力机制的群猪检测方法。首先基于YOLOv7模型构建了群猪目标检测网络YOLOpig,该网络设计了融合注意力机制的小目标尺度检测网络结构,并基于残差思想优化了最大池化卷积模块,实现了对被遮挡与小目标猪只个体的准确检测;其次结合GradCAM算法进行猪只检测信息的特征可视化,验证群猪检测试验特征提取的有效性。最后使用目标跟踪算法StrongSORT实现猪只个体的准确跟踪,为猪只的检测任务提供身份信息。研究以育肥阶段的长白猪为测试对象,基于不同视角采集的视频数据集进行测试,验证了YOLOpig网络结合StongSORT算法的准确性和实时性。试验结果表明,该研究提出的YOLOpig模型精确率、召回率及平均精度分别为90.4%、85.5%和92.4%,相较于基础YOLOv7模型平均精度提高了5.1个百分点,检测速度提升7.14%,比YOLOv5、YOLOv7tiny和YOLOv8n 3种模型的平均精度分别提高了12.1、16.8和5.7个百分点,该文模型可以实现群猪的有...  相似文献   

7.
快速精准识别棚内草莓的改进YOLOv4-Tiny模型   总被引:5,自引:5,他引:0  
为了实现棚内草莓果实的快速精准识别,该研究提出一种基于改进YOLOv4-Tiny的草莓检测模型。首先,为了大幅度减少模型计算量,采用轻量型网络GhostNet作为特征提取网络,并在GhostBottleneck结构中嵌入卷积注意力模块以加强网络的特征提取能力;其次,在颈部网络中添加空间金字塔池化模块和特征金字塔网络结构,融合多尺度特征提升小目标草莓的检测效果;最后,采用高效交并比损失作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进YOLOv4-Tiny模型权重大小仅为4.68 MB,平均每幅图片的检测时间为5.63 ms,在测试集上的平均精度均值达到92.62%,相较于原YOLOv4-Tiny模型提升了5.77个百分点。与主流的目标检测模型SSD、CenterNet、YOLOv3、YOLOv4和YOLOv5s相比,改进YOLOv4-Tiny模型平均精度均值分别高出9.11、4.80、2.26、1.22、1.91个百分点,并且模型权重大小和检测速度方面均具有绝对优势,该研究可为后续果实智能化采摘提供技术支撑。  相似文献   

8.
基于YOLOv4模型剪枝的番茄缺陷在线检测   总被引:4,自引:4,他引:0  
为解决番茄缺陷检测过程中的精确性和实时性问题,该研究提出一种基于模型剪枝的番茄表面缺陷实时检测方法。采用模型剪枝的方法在YOLOv4网络模型基础上进行模型优化,首先将3个连续检测工位采集的RGB图像拼接生成YOLOv4网络的输入图像,然后采用通道剪枝和层剪枝的方法压缩YOLOv4网络模型,从而减少模型参数,提高检测速度,最后提出一种基于L1范数的非极大值抑制方法,用于在模型微调后去除冗余预测框,从而精准定位图像中的缺陷位置,并将模型部署到分级系统上进行实时检测试验。结果表明,该研究提出的YOLOv4P网络与原YOLOv4网络相比,网络模型尺寸和推理时间分别减少了232.40 MB和10.11 ms,平均精度均值(Mean Average Precision,mAP)从92.45%提高到94.56%,能满足实际生产中针对缺陷番茄进行精准、实时检测的要求,为番茄分级系统提供了高效的实时检测方法。  相似文献   

9.
采用改进CenterNet模型检测群养生猪目标   总被引:5,自引:4,他引:1  
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。  相似文献   

10.
基于特征递归融合YOLOv4网络模型的春见柑橘检测与计数   总被引:3,自引:3,他引:0  
春见柑橘个体小、单株果树柑橘密集、柑橘之间的形态与颜色相似度高且易被树叶严重遮挡,这些特点给春见柑橘检测与计数带来了较大困难。该研究以实际春见果园环境中的春见柑橘作为检测与计数对象,提出了一种以春见柑橘为检测目标的基于特征递归融合YOLOv4网络模型(YOLOv4 network model with recursive fusion of features,FR-YOLOv4)。针对春见柑橘尺寸小的特点,FR-YOLOv4网络模型的主干特征提取网络采用了感受野更小的CSPResNest50网络,降低了小尺寸目标的特征图传不到目标检测器中的可能性;针对春见柑橘被遮挡和密集分布的情况,采用了递归特征金字塔(Recursive Feature Pyramid,RFP)网络来进行特征递归融合,提高了对果园环境下春见柑橘的检测精度。试验结果表明:FR-YOLOv4网络模型对于果园环境中春见柑橘的平均检测精度为94.6%,视频检测帧率为51帧/s。FR-YOLOv4网络模型相比于YOLOv4、单次多框检测器(Single Shot Multi-Box Detector,SSD)、CenterNet和更快速卷积神经网络(Faster- Region-Convolutional Neural Networks,Faster R-CNN)的平均检测精度分别提高了8.9、29.3、14.1和16.2个百分点,视频检测帧率分别比SSD、Faster R-CNN提高了17帧/s和33帧/s。FR-YOLOv4网络模型对于实际果园环境中春见柑橘的检测精度高,具备检测实时性,适用于春见果园中春见柑橘检测与计数。  相似文献   

11.
基于改进YOLOv7模型的复杂环境下鸭蛋识别定位   总被引:1,自引:1,他引:0  
在干扰、遮挡等复杂环境下,对鸭蛋进行快速、准确识别定位是开发鸭蛋拾取机器人的关键技术,该研究提出一种基于改进YOLOv7(you only look once)模型的复杂环境鸭蛋检测方法,在主干网络加入卷积注意力模块(CBAM,convolutional block attention module),加强网络信息传递,提高模型对特征的敏感程度,减少复杂环境对鸭蛋识别干扰;利用深度可分离卷积(DSC,depthwise separable convolution)、调整空间金字塔池化结构(SPP,spatial pyramid pooling),降低模型参数数量和运算成本。试验结果表明,与SSD、YOLOv4、YOLOv5_M以及YOLOv7相比,改进YOLOv7模型的F1分数(F1 score)分别提高了8.3、10.1、8.7和7.6个百分点,F1分数达95.5%,占内存空间68.7 M,单张图片检测平均用时0.022 s。与不同模型在复杂环境的检测对比试验表明,改进的YOLOv7模型,在遮挡、簇拥、昏暗等复杂环境下,均能对鸭蛋进行准确快速的识别定位,具有较强鲁棒性和适用性。该研究可为后续开发鸭蛋拾取机器人提供技术支撑。  相似文献   

12.
采用轻量级网络MobileNetV2的酿酒葡萄检测模型   总被引:1,自引:1,他引:0  
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   

13.
利用目标检测获取水下鱼类图像中的生物信息,对于实现水产养殖信息化、智能化有重要意义。受到成像设备与水下拍摄环境等因素的影响,重叠鱼群尾数检测仍为水下目标检测领域的难点之一。该研究以水下重叠鱼群图像为研究对象,提出了一种基于图像增强与改进Faster-RCNN网络的重叠鱼群尾数检测模型。在图像预处理部分,该研究利用MSRCR算法结合自适应中值滤波算法进行水下图像增强;在Faster-RCNN网络的改进部分,该研究采用ResNeXt101网络作为模型主干网络、增加带有CBAM(Convolution Block Attention Module)注意力机制的Bi-PANet(Bilinear-Path Aggregation Network)路径聚合网络、使用PAM(Partitioning Around Medoids)聚类算法优化网络初始预测框的尺度和数量、以Soft-NMS(Soft Non-Maximum Suppression)算法替代NMS(Non-Maximum Suppression)算法。通过以上措施提高模型对于重叠鱼群尾数的检测精度。通过消融试验可得,改进后的模型对水下重叠鱼群图像的平均检测精度和平均召回率分别为76.8%和85.4%,两项指标较Faster-RCNN模型分别提高了8.4个百分点和13.2个百分点。通过对多种模型的实际试验结果进行对比可知,改进后的模型的平均准确率相较于YOLOv3-spp、SSD300和YOLOv5x6分别高出32.9个百分点、12.3个百分点和6.7个百分点。改进后的模型对重叠数量为2~5尾的鱼群进行数量检测时,成功率分别为80.4%、75.6%、65.1%和55.6%,明显高于其他目标检测算法,可为重叠鱼群尾数检测提供参考。  相似文献   

14.
果实表型数据高通量、自动获取是果树新品种育种研究的基础,实现幼果精准检测是获取生长数据的关键。幼果期果实微小且与叶片颜色相近,检测难度大。为了实现自然环境下苹果幼果的高效检测,采用融合挤压激发块(Squeeze-and-Excitation block, SE block)和非局部块(Non-Local block, NL block)两种视觉注意机制,提出了一种改进的YOLOv4网络模型(YOLOv4-SENL)。YOLOv4模型的骨干网络提取高级视觉特征后,利用SE block在通道维度整合高级特征,实现通道信息的加强。在模型改进路径聚合网络(Path Aggregation Network, PAN)的3个路径中加入NL block,结合非局部信息与局部信息增强特征。SE block和NL block两种视觉注意机制从通道和非局部两个方面重新整合高级特征,强调特征中的通道信息和长程依赖,提高网络对背景与果实的特征捕捉能力。最后由不同尺寸的特征图实现不同大小幼果的坐标和类别计算。经过1 920幅训练集图像训练,网络在600幅测试集上的平均精度为96.9%,分别比SSD、Faster R-CNN和YOLOv4模型的平均精度提高了6.9百分点、1.5百分点和0.2百分点,表明该算法可准确地实现幼果期苹果目标检测。模型在480幅验证集的消融试验结果表明,仅保留YOLOv4-SENL中的SE block比YOLOv4模型精度提高了3.8百分点;仅保留YOLOv4-SENL中3个NL block视觉注意模块比YOLOv4模型的精度提高了2.7百分点;将YOLOv4-SENL中SE block与NL blocks相换,比YOLOv4模型的精度提高了4.1百分点,表明两种视觉注意机制可在增加少量参数的基础上显著提升网络对苹果幼果的感知能力。该研究结果可为果树育种研究获取果实信息提供参考。  相似文献   

15.
改进YOLOv5测量田间小麦单位面积穗数   总被引:2,自引:2,他引:0  
单位面积穗数是决定小麦产量的主要因素之一。针对人工清点小麦穗数的方法容易受主观因素影响、效率低和图像处理方法鲜有进行系统部署等问题,提出一种注意力模块(Convolutional Block Attention Module,CBAM)与YOLOv5相结合的CBAM-YOLOv5网络结构,通过对特征图进行自适应特征细化,实现更准确的单位面积穗数测量。该研究以本地采集小麦图像数据和网络公开小麦图像数据为数据集,设置输入图像分辨率为1 280,得到CBAM-YOLOv5模型,可以达到0.904的F1分数和0.902的平均精度,测试集计数的平均相对误差为2.56%,平均每幅图像耗时0.045 s,综合对比,CBAM-YOLOv5模型具有显著优势。模型放置于服务器,结合手机端软件和辅助装置,形成单位面积穗数测量系统,实现育种小区麦穗图像实时采集、处理和计数,计数的平均相对误差为2.80%,抗环境干扰性强。该研究方法与装置可以实现田间小麦单位面积穗数的实时在线检测,降低主观误差,具有较高的准确率及较强的鲁棒性,为小麦单位面积穗数快速、准确估测提供一种新的技术和装备支撑。  相似文献   

16.
在复杂果园环境中,传统机器视觉算法难以处理光影变化、遮挡、杂草等因素的干扰,导致导航道路分割不准确。针对此问题,该研究提出了一种改进YOLOv7的果园内导航线检测方法。将注意力机制模块(convolutional block attention module,CBAM)引入到原始YOLOv7模型的检测头网络中,增强果树目标特征,削弱背景干扰;在ELAN-H(efficient layer aggregation networks-head,ELAN-H)模块和Repconv(re-parameterization convolution,Repconv)模块之间引入SPD-Conv(space-to-depth,non-strided convolution,SPD-Conv)模块,提高模型对低分辨率图像或小尺寸目标的检测能力。以树干根部中点作为导航定位基点,利用改进YOLOv7模型得到两侧果树行线的定位参照点,然后利用最小二乘法拟合两侧果树行线和导航线。试验结果表明,改进YOLOv7模型检测精度为95.21%,检测速度为42.07帧/s,相比于原始YOLOv7模型分别提升了2.31个百分点和4.85帧/s,能够较为准确地识别出树干,且对树干较密的枣园图像也能达到较好的检测效果;提取到的定位参照点与人工标记树干中点的平均误差为8.85 cm,拟合导航线与人工观测导航线的平均偏差为4.90 cm,处理1帧图像平均耗时为0.044 s,能够满足果园内导航需求。  相似文献   

17.
针对破壳鸡蛋(破口蛋和裂纹蛋)缺陷差异性大,在线检测要求实时,以及人工检测依靠主观经验且检测速度慢、检测精度不高等问题,该研究提出一种基于改进的YOLOv7(You Only Look Once v7)模型的破壳鸡蛋在线实时检测系统。即以YOLOv7网络为基础,将YOLOv7网络的损失函数CIoU(complete-IoU)替换为WIoUv2(wise-IoU),在骨干网络(backbone)中嵌入坐标注意力模块(coordinate attention,CA)和添加可变形卷积DCNv2(deformable convnet)模块,同时将YOLOv7网络中的检测头(IDetect)替换为具有隐式知识学习的解耦检测头(IDetect_Decoupled)模块。在PC端的试验结果表明,改进后的模型在测试集上平均精度均值(mean average precision,mAP)为94.0%,单张图片检测时间为13.1 ms,与模型改进之前相比,其mAP提高了2.9个百分点,检测时间仅延长1.0 ms;改进后模型的参数量为3.64×107,较原始模型降低了2.1%。最后通过格式转换并利用ONNXRuntime深度学习框架把模型部署至设备端,在ONNXRuntime推理框架下进行在线检测验证。试验结果表明:该算法相较原始YOLOv7误检率降低了3.8个百分点,漏检率不变,并且在线检测平均帧率约为54帧/s,满足在线实时性检测需求。该研究可为破壳鸡蛋在线检测研究提供技术参考。  相似文献   

18.
为了快速检测和统计杨梅树的数量,该研究提出了一种基于改进YOLOv7的杨梅树单木检测模型:YOLOv7-ACGDmix。首先,对YOLOv7的可扩展高效长程注意力网络(extended-efficient long-range attention networks, E-ELAN)进行改进,通过融合兼具卷积和注意力机制优势的ACmix(a mixed model that enjoys the benefit of both self-attention and convolution)结构得到AC-E-ELAN模块,提升模型的学习和推理能力,引入可变形卷积(deformable convolutional networks version 2, DCNv2)结构得到DCNv2-E-ELAN模块,增强模型对不同尺寸目标的提取能力;其次,采用内容感知特征重组(content-aware reassembly of features, CARAFE)上采样模块,提高模型对重要特征的提取能力;然后,在主干和头部网络部分添加全局注意力机制(global-attention mechanism, GAM),强化特征中的语义信息和位置信息,提高模型特征融合能力;最后,采用WIoU(wise intersection over union)损失函数减少因正负样本数据不平衡造成的干扰,增强模型的泛化性。在公开数据集上的试验结果表明,YOLOv7-ACGDmix模型的精确率达到89.1%,召回率达到89.0%,平均精度均值(mean average precision, mAP)达到95.1%,F1-score达到89.0%,相比于原YOLOv7模型分别提高1.8、4.0、2.3和3.0个百分点。与Faster R-CNN、SSD、YOLOv8模型相比,改进模型的平均精度均值(mAP0.5)分别提高了9.8、2.2、0.7个百分点。实地采集杨梅树样本数据的检测精确率87.3%、召回率85.7%。试验表明,改进模型为基于无人机影像的杨梅树单木检测提供了一种有效的解决方案,对果园精准管理的发展具有重要意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号