首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 203 毫秒
1.
基于改进EfficientDet的油橄榄果实成熟度检测   总被引:2,自引:2,他引:0  
自然环境下自动准确地检测油橄榄果实的成熟度是实现油橄榄果实自动化采摘的基础。该研究根据成熟期油橄榄果实表型特征的变化以及参考国际油橄榄理事会和中国林业行业标准的建议制定了油橄榄果实成熟度标准,并针对油橄榄果实相邻成熟度特征差异不明显以及果实之间相互遮挡问题,提出一种改进EfficientDet的油橄榄果实成熟度检测方法。首先改进特征提取网络,在特征提取网络中引入卷积注意力模块(Convolution Block Attention Module,CBAM)细化不同成熟度之间的特征映射;其次改进特征融合网络,在加权双向特征金字塔网络(Bidirectional Feature Pyramid Network,Bi-FPN)中增加跨级的数据流加强果实的相对位置信息,最后通过623幅油橄榄测试图像对改进的EfficientDet模型进行测试。改进EfficientDet模型在测试集下的精确率P、召回率R和平均精度均值mAP分别为92.89%、93.59%和94.60%,平均检测时间为0.337 s,模型大小为32.4 M。对比SSD、EfficientDet、YOLOv3、YOLOv5s和Faster R-CNN模型,平均精度均值mAP分别提升7.85、4.77、3.73、1.15和1.04个百分点。改进EfficientDet模型能够为油橄榄果实的自动化采摘提供有效探索。  相似文献   

2.
基于迁移学习与YOLOv8n的田间油茶果分类识别   总被引:1,自引:1,他引:0  
为降低视觉引导式油茶果采摘机器人采摘被遮挡油茶果时造成的果树和抓取装置损伤,该研究提出了一种基于迁移学习和YOLOv8n算法的油茶果分类识别方法,将油茶果分成无遮挡和遮挡两类。首先,采用COCO128目标检测数据集作为源域,苹果数据集为辅助域的迁移学习方法训练模型。其次,将学习方法、训练数据量、学习率和训练轮数这4种因素组合,共进行了52组YOLOv8n检测性能的消融试验。最后,将YOLOv8n模型与YOLOv3-tiny、YOLOv5n和YOLOv7-tiny等模型进行比较。试验结果表明,随机权重初始化方式受训练数据量和学习率影响较大,学习率为0.01时模型检测效果最好;而迁移学习方法仅用随机权重初始化1/2的数据量即可达到与其相当的平均精度均值;迁移学习方式下,YOLOv8n模型的平均精度均值最高达到92.7%,比随机权重初始化方式提升1.4个百分点。与YOLOv3-tiny、YOLOv5n和YOLOv7-tiny等模型相比,YOLOv8n模型的平均精度均值分别提高24.0、1.7和0.4个百分点,研究结果可为YOLOv8n模型训练参数优化和油茶果分类识别提供参考。  相似文献   

3.
采用改进YOLOv4-tiny的复杂环境下番茄实时识别   总被引:7,自引:7,他引:0  
实时识别番茄的成熟度是番茄自主采摘车的关键功能。现有目标识别算法速度慢、对遮挡番茄和小番茄识别准确率低。因此,该研究提出一种基于改进YOLOv4-tiny模型的番茄成熟度识别方法。在头部网络(Head network)部分增加一个76×76的检测头(y3)来提高小番茄的识别准确率。为了提高被遮挡番茄的识别准确率,将卷积注意力模块(Convolution Block Attention Module,CBAM)集成到YOLOv4-tiny模型的骨干网络(Backbone network)部分。在深层卷积中使用Mish激活函数替代ReLU激活函数以保证提取特征的准确性。使用密集连接的卷积网络(Densely Connected Convolution Networks, DCCN)来加强全局特征融合,并建立红风铃番茄成熟度识别的数据集。试验结果表明,与YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m和YOLOv5l模型相比,改进YOLOv4-tiny-X模型的平均精度均值(mean Average Precision, mAP)分别提高了30.9、0.2、0.7、5.4和4.9个百分点,在Nvidia GTX 2060 GPU 上达到111帧/s的速度,平均精度均值达到97.9%。不同模型的实时测试可视化结果表明,改进模型能够有效解决遮挡和小番茄识别准确率低的问题,可为番茄采摘车研制提供参考。  相似文献   

4.
基于改进YOLOv3的果园复杂环境下苹果果实识别   总被引:5,自引:4,他引:1  
为使采摘机器人能够全天候的在不同光照、重叠遮挡、大视场等果园复杂环境下对不同成熟度的果实进行快速、准确的识别,该研究提出了一种基于改进YOLOv3的果实识别方法。首先,将DarkNet53网络中的残差模块与CSPNet(Cross Stage Paritial Network)结合,在保持检测精度的同时降低网络的计算量;其次,在原始YOLOv3模型的检测网络中加入SPP(Spatial Pyramid Pooling)模块,将果实的全局和局部特征进行融合,提高对极小果实目标的召回率;同时,采用Soft NMS(Soft Non-Maximum Suppression)算法代替传统NMS(Non-Maximum Suppression)算法,增强对重叠遮挡果实的识别能力;最后,采用基于Focal Loss和CIoU Loss的联合损失函数,对模型进行优化,提高识别精度。以苹果为例进行的试验结果表明:经过数据集训练之后的改进模型,在测试集下的MAP(Mean Average Precision)值达到96.3%,较原模型提高了3.8个百分点;F1值达到91.8%,较原模型提高了3.8个百分点;在GPU下的平均检测速度达到27.8帧/s,较原模型提高了5.6帧/s。与Faster RCNN、RetinaNet等几种目前先进的检测方法进行比较并在不同数目、不同光照情况下的对比试验结果表明,该方法具有优异的检测精度及良好的鲁棒性和实时性,对解决复杂环境下果实的精准识别问题具有重要参考价值。  相似文献   

5.
基于无人机图像和贝叶斯CSRNet模型的粘连云杉计数   总被引:1,自引:1,他引:0  
自动、准确且快速地统计苗木数量是实现苗圃高效管理的重要基础。针对现有苗木计数方法准确率较低且无法准确统计粘连苗木等问题,该研究提出了一种基于贝叶斯CSRNet模型的云杉计数模型。该模型以对粘连苗木具有良好稳定性的CSRNet模型为基础,引入贝叶斯损失函数,以人工标注的点标签数据作为监督信号。以1 176幅云杉图像训练贝叶斯CSRNet模型,并通过166幅测试集云杉图像测试。结果表明,贝叶斯CSRNet模型可以准确、快速地统计无人机航拍图像内的云杉,对测试集图像内云杉的平均计数准确率(Mean Counting Accuracy,MCA)、平均绝对误差(Mean Absolute Error,MAE)和均方误差(Mean Square Error,MSE)分别为99.19%、1.42和2.80。单幅云杉图像耗时仅为248 ms,模型大小为62 Mb。对比YOLOv3模型、改进YOLOv3模型、CSRNet模型和贝叶斯CSRNet模型对166幅测试集云杉图像的计数结果,贝叶斯CSRNet模型的MCA分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型高3.43%、1.44%和1.13%;贝叶斯CSRNet模型的MAE分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型低6.8、2.9和1.67;贝叶斯CSRNet模型的MSE分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型低101.74、23.48和8.57。在MCT和MS两项指标上,贝叶斯CSRNet模型与CSRNet模型相同且优于YOLOv3模型和改进YOLOv3模型。贝叶斯CSRNet模型可实现无人机航拍图像内苗木数量的自动、准确、快速统计,为苗木库存智能盘点提供参考。  相似文献   

6.
基于改进YOLOv4模型的全景图像苹果识别   总被引:3,自引:3,他引:0  
苹果果园由于密植栽培模式,果树之间相互遮挡,导致苹果果实识别效果差,并且普通的图像采集方式存在图像中果实重复采集的问题,使得果实计数不准确。针对此类问题,该研究采用全景拍摄的方式采集苹果果树图像,并提出了一种基于改进YOLOv4和基于阈值的边界框匹配合并算法的全景图像苹果识别方法。首先在YOLOv4主干特征提取网络的Resblock模块中加入scSE注意力机制,将PANet模块中的部分卷积替换为深度可分离卷积,且增加深度可分离卷积的输出通道数,以增强特征提取能力,降低模型参数量与计算量。将全景图像分割为子图像,采用改进的YOLOv4模型进行识别,通过对比Faster R-CNN、CenterNet、YOLOv4系列算法和YOLOv5系列算法等不同网络模型对全景图像的苹果识别效果,改进后的YOLOv4网络模型精确率达到96.19%,召回率达到了95.47%,平均精度AP值达到97.27%,比原YOLOv4模型分别提高了1.07、2.59、2.02个百分点。采用基于阈值的边界框匹配合并算法,将识别后子图像的边界框进行匹配与合并,实现全景图像的识别,合并后的结果其精确率达到96.17%,召回率达到95.63%,F1分数达到0.96,平均精度AP值达到95.06%,高于直接对全景图像苹果进行识别的各评价指标。该方法对自然条件下全景图像的苹果识别具有较好的识别效果。  相似文献   

7.
改进类圆随机Hough变换及其在油茶果实遮挡识别中的应用   总被引:8,自引:8,他引:0  
为将目标油茶果实从树枝、树叶等外界遮挡中分离出来,以利于油茶采摘机器视觉的图像形态学识别,该文提出了一种改进的类圆随机Hough变换算法,在算法中添加了边缘预检测、快速定位圆心点等模块以提高算法的识别率。仿真结果表明,改进算法对遮挡果实的识别率较其他Hough遮挡识别算法有所提高,最高达到90.70%,识别时间为1.3s。该研究为采摘机器人的后续采摘工作打下了基础。  相似文献   

8.
基于改进型YOLOv4-LITE轻量级神经网络的密集圣女果识别   总被引:9,自引:9,他引:0  
对密集圣女果遮挡、粘连等情况下的果实进行快速识别定位,是提高设施农业环境下圣女果采摘机器人工作效率和产量预测的关键技术之一,该研究提出了一种基于改进YOLOv4-LITE轻量级神经网络的圣女果识别定位方法。为便于迁移到移动终端,该方法使用MobileNet-v3作为模型的特征提取网络构建YOLOv4-LITE网络,以提高圣女果果实目标检测速度;为避免替换骨干网络降低检测精度,通过修改特征金字塔网络(Feature Pyramid Networks,FPN)+路径聚合网络(Path Aggregation Network,PANet)的结构,引入有利于小目标检测的104×104尺度特征层,实现细粒度检测,在PANet结构中使用深度可分离卷积代替普通卷积降低模型运算量,使网络更加轻量化;并通过载入预训练权重和冻结部分层训练方式提高模型的泛化能力。通过与YOLOv4在相同遮挡或粘连程度的测试集上的识别效果进行对比,用调和均值、平均精度、准确率评价模型之间的差异。试验结果表明:在重叠度IOU为0.50时所提出的密集圣女果识别模型在全部测试集上调和均值、平均精度和准确率分别为0.99、99.74%和99.15%,同比YOLOv4分别提升了0.15、8.29个百分点、6.54个百分点,权重大小为45.3 MB,约为YOLOv4的1/5,对单幅416×416像素图像的检测,在图形处理器(Graphics Processing Unit,GPU)上速度可达3.01 ms/张。因此,该研究提出的密集圣女果识别模型具有识别速度快、识别准确率高、轻量化等特点,可为设施农业环境下圣女果采摘机器人高效工作以及圣女果产量预测提供有力的保障。  相似文献   

9.
针对目前苹果在复杂环境下难以进行生长状态分类识别、姿态信息同步获取等问题,该研究提出了一种基于改进YOLOv7的苹果生长状态分类和果实姿态融合识别方法。首先改进多尺度特征融合网络,在骨干网络中增加160×160的特征尺度层,用于增强模型对微小局部特征的识别敏感度;其次引入注意力机制CBAM(convolutional block attention module),改善网络对输入图片的感兴趣目标区域的关注度;最后采用Soft-NMS算法,能够有效避免高密度重叠目标被一次抑制从而发生漏检现象。此外,结合UNet分割网络和最小外接圆及矩形特征获取未遮挡苹果姿态。试验结果表明,改进YOLOv7的识别精确率、召回率和平均识别精度分别为86.9%、80.5%和87.1%,相比原始YOLOv7模型分别提高了4.2、2.2和3.7个百分点,与Faster RCNN、YOLOv5s、YOLOv5m相比,检测平均准确率分别提升了18.9、7.2和5.9个百分点,另外苹果姿态检测方法的准确率为94%。该文模型能够实现苹果生长状态分类及果实姿态识别,可为末端执行器提供了抓取方向,以期为苹果无损高效的采摘奠定基础。  相似文献   

10.
基于改进型YOLOv4的果园障碍物实时检测方法   总被引:9,自引:6,他引:3  
针对农业机器人在复杂的果园环境中作业时需要精确快速识别障碍物的问题,该研究提出了一种改进型的YOLOv4目标检测模型对果园障碍物进行分类和识别。为了减少改进后模型的参数数量并提升检测速度,该研究使用了深度可分离卷积代替模型中原有的标准卷积,并将主干网络CSP-Darknet中的残差组件(Residual Unit)改进为逆残差组件(Inverted Residual Unit)。此外,为了进一步增强模型对目标密集区域的检测能力,使用了软性非极大值抑制(Soft DIoU-Non-Maximum Suppression,Soft-DIoU-NMS)算法。为了验证该研究所提方法的有效性,选取果园中常见的3种障碍物作为检测对象制作图像数据集,在Tensorflow深度学习框架上训练模型。然后将测试图片输入训练好的模型中检测不同距离下的目标障碍物,并在同一评价指标下,将该模型的测试结果与改进前YOLOv4模型的测试结果进行评价对比。试验结果表明,改进后的YOLOv4果园障碍物检测模型的平均准确率和召回率分别为96.92%和91.43%,视频流检测速度为58.5帧/s,相比于原模型,改进后的模型在不损失精度的情况下,将模型大小压缩了75%,检测速度提高了29.4%。且改进后的模型具有鲁棒性强、实时性更好、轻量化的优点,能够更好地实现果园环境下障碍物的检测,为果园智能机器人的避障提供了有力的保障。  相似文献   

11.
基于多模态图像的自然环境下油茶果识别   总被引:1,自引:1,他引:0  
针对自然条件下油茶果生长条件复杂,存在大量遮挡、重叠的问题,提出了一种基于RGB-D(red green blue-depth)多模态图像的双主干网络模型YOLO-DBM(YOLO-dual backbone model),用来进行油茶果的识别定位。首先,在YOLOv5s模型主干网络CSP-Darknet53的基础上设计了一种轻量化的特征提取网络。其次,使用两个轻量化的特征提取网络分别提取彩色和深度特征,接着使用基于注意力机制的特征融合模块将彩色特征与深度特征进行分级融合,再将融合后的特征层送入特征金字塔网络(feature pyramid network,FPN),最后进行预测。试验结果表明,使用RGB-D图像的YOLO-DBM模型在测试集上的精确率P、召回率R和平均精度AP分别为94.8%、94.6%和98.4%,单幅图像平均检测耗时0.016 s。对比YOLOv3、YOLOv5s和YOLO-IR(YOLO-InceptionRes)模型,平均精度AP分别提升2.9、0.1和0.3个百分点,而模型大小仅为6.21MB,只有YOLOv5s大小的46%。另外,使用注意力融合机制的YOLO-DBM模型与只使用拼接融合的YOLO-DBM相比,精确率P、召回率R和平均精度AP分别提高了0.2、1.6和0.1个百分点,进一步验证该研究所提方法的可靠性与有效性,研究结果可为油茶果自动采收机的研制提供参考。  相似文献   

12.
黄花菜是极具营养价值和经济效益的一种农作物,深受人们喜爱。目前黄花菜采摘大都是人工采摘,采摘效率低、人工成本较高,在设计黄花菜自动采摘机器人的过程中,复杂环境下黄花菜的目标识别是实现智能化采摘的核心问题。该研究建立了包含12 000幅黄花菜样本的数据库,比较了YouOnlyLookOnce(YOLOv7)、 FasterRegion Convolutional Neural Networks(Faster R-CNN)和Single Shot MultiBox Detector(SSD)三种模型的检测效果,提出一种基于改进YOLOv7目标检测算法的复杂环境下黄花菜识别的YOLOv7-MOCA模型,使用MobileOne网络作为主干特征提取网络,构建了一种轻量化网络模型,并在颈部网络中融合Coordinate Attention注意力机制改善对样本的检测效果。试验结果表明,YOLOv7-MOCA模型检测准确率为96.1%,召回率为96.6%,F1值为0.96,权重为10 MB,帧速率为58帧/s。较YOLOv7检测速度提高了26.1%,权重减少了86.7%,该研究所提出的YOLOv7-M...  相似文献   

13.
为解决莲田环境下不同成熟期莲蓬的视觉感知问题,该研究提出了一种改进YOLOv5s的莲蓬成熟期检测方法。首先,通过在主干特征网络中引入BoT(bottleneck transformer)自注意力机制模块,构建融合整体与局部混合特征的映射结构,增强不同成熟期莲蓬的区分度;其次,采用高效交并比损失函数EIoU(efficient IoU)提高了边界框回归定位精度,提升模型的检测精度;再者,采用K-means++聚类算法优化初始锚框尺寸的计算方法,提高网络的收敛速度。试验结果表明,改进后YOLOv5s模型在测试集下的精确率P、召回率R、平均精度均值mAP分别为98.95%、97.00%、98.30%,平均检测时间为6.4ms,模型尺寸为13.4M。与YOLOv3、 YOLOv3-tiny、 YOLOv4-tiny、 YOLOv5s、YOLOv7检测模型对比,平均精度均值mAP分别提升0.2、1.8、1.5、0.5、0.9个百分点。基于建立的模型,该研究搭建了莲蓬成熟期视觉检测试验平台,将改进YOLOv5s模型部署在移动控制器Raspberry Pi 4B中,对4种距离范围下获取的莲蓬场景图像...  相似文献   

14.
樱桃番茄串生长姿态多样、果实成熟度不一,采摘机器人进行“粒收”作业时,常面临果梗干涉末端执行器、成熟度判断错误等问题,导致采摘效率低下、难以有效实现分级采收。针对上述问题,该研究提出一种级联视觉检测流程,包括采收目标检测、目标果实特性判别、果实与果梗位置关系判断3个关键环节。首先根据农艺要求按成熟度将番茄果实分为4个等级,引入YOLOv5目标检测模型对番茄串和番茄果实进行检测并输出成熟度等级,实现分期采收。然后对果实与果梗的相对位置进行判断,利用MobileNetv3网络模型对膨胀包围盒进行果实与果梗相对位置关系判断,实现末端执行器采摘位姿控制。日光温室实际测试结果表明,本文提出的级联检测系统平均推理用时22ms,在IOU(intersectionoverunion)阈值为0.5的情况下,樱桃番茄串与果实的平均检测精度达到89.9%,满足采摘机器人的视觉检测精度和实时性要求,相比末端执行器以固定角度靠近待采目标的方法,本文方法采收效率提升28.7个百分点。研究结果可为各类果蔬采摘机器人研究提供参考。  相似文献   

15.
基于无人机影像自动检测冠层果的油茶快速估产方法   总被引:2,自引:2,他引:0  
快速准确的产量估算对油茶经营管理和可持续发展具有重要意义。该研究针对油茶快速估产的应用现状,提出一种基于无人机影像自动检测冠层果的方法用于油茶快速估产。首先借助无人机航拍影像,通过随机抽样选取120株油茶树进行无人机近景摄影和人工采摘称量;然后利用Mask RCNN(Mask Region Convolutional Neural Networks)网络开展基于近景影像的油茶冠层果自动检测与计数;采用线性回归和K最邻近建立冠层果数与单株果数之间的关系,同时结合研究区典型样木株数和平均单果质量,构建基于冠层果自动检测的估产模型。结果表明:1)无人机超低空近景影像结合Mask RCNN网络能够有效检测不同光照条件油茶果,平均F1值达89.91%;2)同传统卫星遥感相比,基于无人机近景摄影的冠层果自动检测在作物产量估测方面显示出明显优势,Mask RCNN网络预测的冠层果数与油茶样木单株果数之间具有良好的一致性,拟合决定系数R2达0.871;3)结合线性回归和K最邻近构建的模型估产精度均较高,拟合决定系数R~2和标准均方根误差NRMSE(Normalized Root Mean Square Error)分别在0.892~0.913和28.01%~31.00%之间,表明基于无人机影像自动检测冠层果的油茶快速估产是一种切实可行的方法。研究结果可为油茶快速估产和智能监测提供参考。  相似文献   

16.
随着食用菌行业由自动化向智能化、信息化发展的趋势越来越明显,为了实现现代化菇房中平菇的准确检测,解决工厂化平菇栽培中收获阶段平菇之间相互遮挡等问题,帮助平菇采收机器人进行准确的自动化采收,该文提出了一种基于YOLOv5(you only look once version 5)模型的OMM-YOLO(ostreatus measure modle-YOLO)平菇目标检测与分类模型。通过在YOLOv5模型的Backbone层添加注意力模块,对输入的平菇图像特征进行动态加权,以获得更详细的特征信息,并在Neck层采用加权双向特征金字塔网络,通过与不同的特征层融合,提高算法的平菇目标检测的精度。此外,为了改善算法的准确性和边界框纵横比的收敛速度,该文采用了EIoU(enhanced intersection over union)损失函数替代了原有的损失函数。试验结果表明,与原始模型相比,改进模型OMM-YOLO对成熟平菇、未成熟平菇和未生长平菇的平均精度均值分别提高了0.4个百分点、4.5个百分点和1.1个百分点。与当前主流模型Resnet50、VGG16、YOLOv3、YOLOv4、YOLOv5m和YOLOv7相比,该模型的精确率、召回率和检测精度均处于优势,适用于收集现代化菇房中的平菇信息,有效避免了平菇之间因相互遮挡而产生的误检测现象。菇房平菇目标检测可以自动化地检测平菇的数量、生长状态等信息,帮助菇房工作人员掌握菇房内的菇况,及时调整温湿度等环境条件,提高生产效率,并且对可以对平菇进行质量控制,确保平菇产品的统一性和品质稳定性。同时可以减少对人工的依赖,降低人力成本,实现可持续发展,对智能化现代菇房建设具有积极作用。  相似文献   

17.
基于优选YOLOv7模型的采摘机器人多姿态火龙果检测系统   总被引:3,自引:3,他引:0  
为了检测复杂自然环境下多种生长姿态的火龙果,该研究基于优选YOLOv7模型提出一种多姿态火龙果检测方法,构建了能区分不同姿态火龙果的视觉系统。首先比较了不同模型的检测效果,并给出不同设备的建议模型。经测试,YOLOv7系列模型优于YOLOv4、YOLOv5和YOLOX的同量级模型。适用于移动设备的YOLOv7-tiny模型的检测准确率为83.6%,召回率为79.9%,平均精度均值(mean average precision,mAP)为88.3%,正视角和侧视角火龙果的分类准确率为80.4%,推理一张图像仅需1.8 ms,与YOLOv3-tiny、YOLOv4-tiny和YOLOX-tiny相比准确率分别提高了16.8、4.3和4.8个百分点,mAP分别提高了7.3、21和3.9个百分点,与EfficientDet、SSD、Faster-RCNN和CenterNet相比mAP分别提高了8.2、5.8、4.0和42.4个百分点。然后,该研究对不同光照条件下的火龙果进行检测,结果表明在强光、弱光、人工补光条件下均保持着较高的精度。最后将基于YOLOv7-tiny的火龙果检测模型部署到Jetson Xavier NX上并针对正视角火龙果进行了验证性采摘试验,结果表明检测系统的推理分类时间占完整采摘动作总时间的比例约为22.6%,正视角火龙果采摘成功率为90%,验证了基于优选YOLOv7的火龙果多姿态检测系统的性能。  相似文献   

18.
果实表型数据高通量、自动获取是果树新品种育种研究的基础,实现幼果精准检测是获取生长数据的关键。幼果期果实微小且与叶片颜色相近,检测难度大。为了实现自然环境下苹果幼果的高效检测,采用融合挤压激发块(Squeeze-and-Excitation block, SE block)和非局部块(Non-Local block, NL block)两种视觉注意机制,提出了一种改进的YOLOv4网络模型(YOLOv4-SENL)。YOLOv4模型的骨干网络提取高级视觉特征后,利用SE block在通道维度整合高级特征,实现通道信息的加强。在模型改进路径聚合网络(Path Aggregation Network, PAN)的3个路径中加入NL block,结合非局部信息与局部信息增强特征。SE block和NL block两种视觉注意机制从通道和非局部两个方面重新整合高级特征,强调特征中的通道信息和长程依赖,提高网络对背景与果实的特征捕捉能力。最后由不同尺寸的特征图实现不同大小幼果的坐标和类别计算。经过1 920幅训练集图像训练,网络在600幅测试集上的平均精度为96.9%,分别比SSD、Faster R-CNN和YOLOv4模型的平均精度提高了6.9百分点、1.5百分点和0.2百分点,表明该算法可准确地实现幼果期苹果目标检测。模型在480幅验证集的消融试验结果表明,仅保留YOLOv4-SENL中的SE block比YOLOv4模型精度提高了3.8百分点;仅保留YOLOv4-SENL中3个NL block视觉注意模块比YOLOv4模型的精度提高了2.7百分点;将YOLOv4-SENL中SE block与NL blocks相换,比YOLOv4模型的精度提高了4.1百分点,表明两种视觉注意机制可在增加少量参数的基础上显著提升网络对苹果幼果的感知能力。该研究结果可为果树育种研究获取果实信息提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号