首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 343 毫秒
1.
针对农作物与杂草交叉生长,导致杂草等目标难以识别的问题,提出一种融合强化注意力机制的农田杂草识别方法。首先,利用主干网络进行特征提取,并在此基础上提出一种强化注意力模块,从水平和垂直等两个维度细粒度进行位置特征编码,通过计算原始主干网络提取的特征与位置编码之间的偏移量,强化目标物体的定位与识别;然后,在单层注意力机制的基础上,引入上下文关系链条,进一步强化模型的泛化性能,最后,结合迁移学习的训练方式缓解小样本数据集极易造成过拟合的问题。通过测试单一目标物体和交叉生长的多目标物体在晴天、雨天和阴天等多场景环境下的识别性能,结果表明,本文方法分别可以实现单一目标物体和交叉生长的多目标物体92.84%和90.01%的平均识别准确率。  相似文献   

2.
基于FTVGG16卷积神经网络的鱼类识别方法   总被引:3,自引:0,他引:3  
针对大多数应用场景中,大多数鱼类呈不规则条状,鱼类目标小,受他物遮挡和光线干扰,且一些基于颜色、形状、纹理特征的传统鱼类识别方法在提取图像特征方面存在计算复杂、特征提取具有盲目和不确定性,最终导致识别准确率低、分类效果差等问题,本文在分析已有的VGG16卷积神经网络良好的图像特征提取器的基础上,使用Image Net大规模数据集上预训练的VGG16权重作为新模型的初始化权重,通过增加批规范层(Batch normalization,BN)、池化层、Dropout层、全连接层(Fully connected,FC)、softmax层,采用带有约束的正则权重项作为模型的损失函数,并使用Adam优化算法对模型的参数进行更新,汲取深度学习中迁移学习理论,构建了FTVGG16卷积神经网络(Fine-tuning VGG16 convolutional neural network,FTVGG16)。测试结果表明:FTVGG16模型在很大程度上能够克服训练的过拟合,收敛速度明显加快,训练时间明显减少,针对鱼类目标很小、背景干扰很强的图像,FTVGG16模型平均准确率为97. 66%,对部分鱼的平均识别准确率达到了99. 43%。  相似文献   

3.
基于改进YOLOv3-tiny的田间行人与农机障碍物检测   总被引:1,自引:0,他引:1  
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM) 与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122ms,满足实时检测要求。  相似文献   

4.
复杂大田场景中麦穗检测级联网络优化方法   总被引:2,自引:0,他引:2  
单位种植面积的麦穗数量是评估小麦产量的关键农艺指标之一。针对农田复杂场景中存在的大量麦芒、卷曲麦叶、杂草等环境噪声、小尺寸目标和光照不均等导致的麦穗检测准确度下降的问题,提出了一种基于深度学习的麦穗检测方法(FCS R-CNN)。以Cascade R-CNN为基本网络模型,通过引入特征金字塔网络(Feature pyramid network,FPN)融合浅层细节特征和高层丰富语义特征,通过采用在线难例挖掘(Online hard example mining, OHEM)技术增加对高损失样本的训练频次,通过IOU(Intersection over union)阈值对网络模型进行阶段性融合,最后基于圆形LBP纹理特征训练一个SVM分类器,对麦穗检出结果进行复验。大田图像测试表明,FCS R-CNN模型的检测精度达92.9%,识别单幅图像平均耗时为0.357s,平均精度为81.22%,比Cascade R-CNN提高了21.76个百分点。  相似文献   

5.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

6.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

7.
针对光照不均、噪声大、拍摄质量不高的夜晚水下环境,为实现夜晚水下图像中鱼类目标的快速检测,利用计算机视觉技术,提出了一种基于改进Cascade R-CNN算法和具有色彩保护的MSRCP(Multi-scale Retinex with color restoration)图像增强算法的夜晚水下鱼类目标检测方法。首先针对夜晚水下环境的视频数据,根据时间间隔,截取出相应的夜晚水下鱼类图像,对截取的原始图像进行MSRCP图像增强。然后采用DetNASNet主干网络进行网络训练和水下鱼类特征信息的提取,将提取出的特征信息输入到Cascade R-CNN模型中,并使用Soft-NMS候选框优化算法对其中的RPN网络进行优化,最后对夜晚水下鱼类目标进行检测。实验结果表明,该方法解决了夜晚水下环境中的图像降质、鱼类目标重叠检测问题,实现了对夜晚水下鱼类目标的快速检测,对夜晚水下鱼类图像目标检测的查准率达到95.81%,比Cascade R-CNN方法提高了11.57个百分点。  相似文献   

8.
作物病害的初期快速准确识别是减小作物经济损失的重要保障。针对实际生产环境中,作物叶片黄化曲叶病毒病(Yellow leaf curl virus,YLCV)患病初期无法应用传统图像处理算法通过颜色或纹理特征进行准确和快速识别,并且YOLO v5s通用模型在复杂环境下识别效果差和效率低的问题,本文提出一种集成改进的叶片病害检测识别方法。该方法通过对Plant Village公开数据集中单一患病叶片图像以及实际生产中手机拍摄获取的患病作物冠层图像两种来源制作数据集,并对图像中的患病叶片进行手动标注等操作,以实现在复杂地物背景和叶片遮挡等情况下正确识别目标,即在健康叶片、患病叶片、枯萎叶片、杂草和土壤中准确识别出所有的患病叶片。此外,用智能手机在生产现场拍摄图像,会存在手机分辨率、光线、拍摄角度等多种因素,会导致识别正确率降低等问题,需要对采集到的图像进行预处理和数据增强以提高模型识别率,通过对YOLO v5s原始模型骨干网络重复多次增加CA注意力机制模块(Coordinate attention),增强YOLO算法对关键信息的提取能力,利用加权双向特征金字塔网络(Bidirectional feature pyramid network,BiFPN),增强模型不同特征层的融合能力,从而提高模型的泛化能力,替换损失函数EIoU(Efficient IoU loss),进一步优化算法模型,实现多方法叠加优化后系统对目标识别性能的综合提升。在相同试验条件下,对比YOLO v5原模型、YOLO v8、Faster R-CNN、SSD等模型,本方法的精确率P、召回率R、平均识别准确率mAP0.5、mAP0.5:0.95分别达到97.40%、94.20%、97.20%、79.10%,本文所提出的算法在提高了精确率与平均精度的同时,保持了较高的运算速度,满足对作物黄化曲叶病毒病检测的准确性与时效性的要求,并为移动端智能识别作物叶片病害提供了理论基础。  相似文献   

9.
机器视觉因具有检测速度快、稳定性高及成本低等优点,已发展成为禽蛋无损检测领域主流检测手段。使用该技术对禽蛋进行无损检测时,需要依赖大量禽蛋图像作为数据支撑才能取得较好的检测效果。由于养殖安全等限制,禽蛋图像数据的采集成本较高,针对该问题,提出了一种适应于小样本禽蛋图像检测的原型网络(Prototypical network)。该网络利用引入注意力机制的逆残差结构搭建的卷积神经网络将不同类别的禽蛋图像映射至嵌入空间,并利用欧氏距离度量测试禽蛋图像在嵌入空间的类别,从而完成禽蛋图像的分类。本文利用该网络分别验证了小样本条件下受精蛋与无精蛋、双黄蛋与单黄蛋及裂纹蛋与正常蛋的分类检测效果,其检测精度分别为95%、98%、88%。试验结果表明本文方法能够有效地解决禽蛋图像检测中样本不足的问题,为禽蛋图像无损检测研究提供了新的思路。  相似文献   

10.
针对苹果叶片病害图像识别存在数据集获取困难、样本不足、识别准确率低等问题,提出基于多尺度特征提取的病害识别网络(Multi-scale feature extraction ConvNext, M-ConvNext)模型。采用一种结合改进的循环一致性生成对抗网络与仿射变换的数据增强方法(Improved CycleGAN and affine transformation, CycleGAN-IA),首先,使用较小感受野的卷积核和残差注意力模块优化CycleGAN网络结构,使用二值交叉熵损失函数代替CycleGAN网络的均方差损失函数,以此生成高质量样本图像,提高样本特征复杂度;然后,对生成图像进行仿射变换,提高数据样本的空间复杂度,该方法解决了数据样本不足的问题,用于辅助后续的病害识别模型。其次,构建M-ConvNext网络,该网络设计G-RFB模块获取并融合各个尺度的特征信息,GELU激活函数增强网络的特征表达能力,提高苹果叶片病害图像识别准确率。最后,实验结果表明,CycleGAN-IA数据增强方法可以对数据集起到良好的扩充作用,在常用网络上验证,增强后的数据集可以有效提高苹果叶片病害图像识别准确率;通过消融实验可得,M-ConvNex识别准确率可达9918%,较原ConvNext网络准确率提高0.41个百分点,较ResNet50、MobileNetV3和EfficientNetV2网络分别提高3.78、7.35、4.07个百分点,为后续农作物病害识别提供了新思路。  相似文献   

11.
针对养殖池塘内单环刺螠自动采捕和产量预测应用需求,提出一种基于深度学习的单环刺螠洞口识别方法,以适用于自动采捕船的嵌入式设备。该方法通过将YOLO v4的主干网络CSPDarkNet53替换为轻量型网络Mobilenet v2,降低网络参数量,提升检测速度,并在此基础上使用深度可分离卷积块代替原网络中Neck和Detection Head部分的普通卷积块,进一步降低模型参数量;选取带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法进行图像增强;利用K-means++算法对数据集进行重新聚类,对获得的新锚点框尺寸进行线性缩放优化,以提高目标检测效果。在嵌入式设备Jetson AGX Xavier上部署训练好的模型,对水下单环刺螠洞口检测的平均精度均值(Mean average precision,mAP)可达92.26%,检测速度为36f/s,模型内存占用量仅为22.2MB。实验结果表明,该方法实现了检测速度和精度的平衡,可满足实际应用场景下模型部署在单环刺螠采捕船嵌入式设备的需求。  相似文献   

12.
快速准确的鱼类识别系统需要良好的识别模型和部署系统作为支撑.近年来,卷积神经网络在图像识别领域取得了巨大成功,不同的卷积网络模型都有不同的优点和缺点,面对众多可供选择的模型结构,如何选择和评价卷积神经网络模型成为了必须考虑的问题.此外,在模型应用方面,移动终端直接部署深度学习模型需要对模型进行裁剪、压缩处理,影响精度的...  相似文献   

13.
针对玉米病害图像采集困难,特别是灰斑病表现差异性较多问题,提出一种基于循环一致对抗网络(CycleGAN)的玉米灰斑病图像生成算法,通过病害图像迁移,使得健康的作物图像可以生成患病作物图像。此方法首先通过特征提取分别提取出健康玉米图像特征和灰斑病图像特征;然后把两种特征图像输入到CycleGAN的生成器Gs中,结合生成器中的残差网络提高图像传输时的准确性,利用两个判断器判断生成的图像是否一致;最后通过对健康玉米图像进行病害迁移得到所需的玉米灰斑病图像。试验结果表明:与VAE、GAN的图像进行迁移比较,结构相似SSIM值整体分别提升50.434%、18.762%,均方误差MSE值整体减少12.891%、9.558%;直观效果上CycleGAN迁移后的不同病害程度的玉米灰斑病效果更好,因此使用CycleGAN网络生成的玉米灰斑病图像更准确。  相似文献   

14.
针对模糊水下图像增强后输入鱼类检测模型精度降低的问题,提出了模糊水下图像多增强与输出混合的鱼类检测方法。利用多种图像增强方法对模糊的水下图像进行增强,将增强后的图像分别输入鱼类检测模型得到多个输出,对多个输出进行混合,然后利用非极大抑制方法对混合结果进行后处理,获得最终检测结果。YOLO v3、YOLO v4 tiny和YOLO v4模型的试验结果表明,对比原始图像的检测结果,本文方法的检测精度分别提高了2.15、8.35、1.37个百分点;鱼类检测数量分别提高了15.5%、49.8%、12.7%,避免了模糊水下图像增强后输入鱼类检测模型出现精度降低的问题,提高了模型检测能力。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号