首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 23 毫秒
1.
基于改进YOLOv3-tiny的田间行人与农机障碍物检测   总被引:1,自引:0,他引:1  
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM) 与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122ms,满足实时检测要求。  相似文献   

2.
[目的/意义]针对小麦叶片病虫害在自然环境下形态和颜色特征较为复杂、区分度较低等特点,提出一种高质量高效的病虫害检测模型,即YOLOv8-SS (You Only Look Once Version 8-SS),为病虫害的预防与科学化治理提供准确的依据。[方法]基于YOLOv8算法,采用改进的轻量级卷积神经网络ShuffleNet V2作为主干网络提取图像特征即YOLOv8-S,在保持检测精度的同时,减少模型的参数数量和计算负载;在此基础上增加小目标检测层和注意力机制SEnet (Squeeze and Excitation Network),对YOLOv8-S进行改进,在不降低检测速度和不损失模型轻量化程度的情况下提高检测精度,提出YOLOv8-SS小麦叶片病虫害检测模型。[结果与讨论]YOLOv8-SS模型在实验数据集上的平均识别精度和检测准确率分别达89.41%和91.00%,对比原模型分别提高10.11%和7.42%。因此,本研究所提出的方法可显著提高农作物病虫害的检测鲁棒性,并增强模型对小目标图像特征的提取能力,从而高效准确地进行病虫害的检测和识别。[结论]本研究使用的方法具...  相似文献   

3.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

4.
[目的/意义]实现复杂的自然环境下农作物害虫的识别检测,改变当前农业生产过程中依赖于专家人工感官识别判定的现状,提升害虫检测效率和准确率具有重要意义。针对农作物害虫目标检测具有目标小、与农作物拟态、检测准确率低、算法推理速度慢等问题,本研究提出一种基于改进YOLOv8的复杂场景下农作物害虫目标检测算法。[方法]首先通过引入GSConv提高模型的感受野,部分Conv更换为轻量化的幻影卷积(Ghost Convolution),采用HorBlock捕捉更长期的特征依赖关系,Concat更换为BiFPN (Bi-directional Feature Pyramid Network)更加丰富的特征融合,使用VoVGSCSP模块提升微小目标检测,同时引入CBAM (Convolutional Block Attention Module)注意力机制来强化田间虫害目标特征。然后使用Wise-IoU损失函数更多地关注普通质量样本,提高网络模型的泛化能力和整体性能。之后,对改进后的YOLOv8-Extend模型与YOLOv8原模型、YOLOv5、YOLOv8-GSCONV、YOLOv8-BiFPN、...  相似文献   

5.
果园环境实时检测是保证果园喷雾机器人精准作业的重要前提。本文提出了一种基于改进DeepLab V3+语义分割模型的果园场景多类别分割方法。为了在果园喷雾机器人上部署,使用轻量化MobileNet V2网络替代原有的Xception网络以减少网络参数,并在空洞空间金字塔池化(Atrous spatial pyramid pooling,ASPP)模块中运用ReLU6激活函数减少部署在移动设备的精度损失,此外结合混合扩张卷积(Hybrid dilated convolution,HDC),以混合扩张卷积替代原有网络中的空洞卷积,将ASPP中的扩张率设为互质以减少空洞卷积的网格效应。使用视觉传感器采集果园场景RGB图像,选取果树、人、天空等8类常见的目标制作了数据集,并在该数据集上基于Pytorch对改进前后的DeepLab V3+进行训练、验证和测试。结果表明,改进后DeepLab V3+模型的平均像素精度、平均交并比分别达到62.81%和56.64%,比改进前分别提升5.52、8.75个百分点。模型参数量较改进前压缩88.67%,单幅图像分割时间为0.08s,与原模型相比减少0.09s。尤其是对树的分割精度达到95.61%,比改进前提高1.31个百分点。该方法可为喷雾机器人精准施药和安全作业提供有效决策,具有实用性。  相似文献   

6.
曾俊  陈仁凡  邹腾跃 《南方农机》2023,(24):24-27+41
【目的】解决自然环境下不同成熟度桃子快速准确检测的问题,课题组提出一种基于改进YOLOv5s的目标检测算法YOLO-Faster。【方法】使用YOLOv5s网络模型作为基础网络,将主干特征提取网络替换为FasterNet,使模型轻量化,并在主干和颈部之间增加串联的CBAM卷积注意力模块和常规卷积块,增强对图像重要特征的捕捉与表达,同时引入SIoU损失函数缓解预测框与真实框之间方向的不匹配。【结果】改进后模型的m AP为88.6%,与YOLOv5s相比提升1个百分点,模型权重缩减39.4%,浮点运算量降低44.3%,在GPU、CPU上的单张图像平均检测时间分别减少12.6%和24%。此外,本研究将训练好的模型部署到嵌入式设备Jetson Nano上,模型在Jetson Nano上的检测时间比YOLOv5s减少30.4%。【结论】改进后的轻量级模型能够快速准确地检测自然环境下不同成熟度的桃子,可以为桃子采摘机器人的视觉识别系统提供技术支持。  相似文献   

7.
针对现有检测算法难以检测自然场景下小而密集的柑橘问题,提出一种DS-YOLO(Deformable Convolution SimAM YOLO)密集柑橘检测算法。引入可形变卷积网络(Deformable Convolution)代替原YOLOv4中的特征提取网络部分卷积层,使特征提取网络能自适应提取遮挡、重叠等导致柑橘形状信息缺失的位置特征,在特征融合模块中,增加新的检测尺度并融合SimAM注意力机制,增强模型对于小而密集柑橘特征的提取能力。试验结果表明:DS-YOLO算法相较于原YOLOv4准确率提高8.75%,召回率提高7.9%,F1分数提高5%,能够较准确检测自然环境下的密集柑橘目标,为密集水果产量预测和采摘机器人提供了有效的技术支持。  相似文献   

8.
水果是我国重要的经济作物之一,果业对于农民的增收和国家经济的发展都具有重要意义。为实现复杂自然环境下对果树树干的识别,提升当前果园生产水平,本文提出一种以YOLOv5模型为基线的果树树干识别检测模型(YOLOv5-SR)。在YOLOv5的backbone网络中以Rep VGG模块代替部分C3模块,利用Rep VGG模块结构重参数化特点实现提升网络模型的检测速度,满足实时性的要求;其次,在网络模型中引入Sim AM注意力机制模块,利用Sim AM注意力机制无参的特点在不影响模型速度的情况下加强对检测目标的提取能力,提升模型的检测精度。实验结果表明,改进后的模型相比较于YOLOv5,检测速度提升了10%,平均精度均值提升了6%,实现速度与精度上的提升。该研究满足在复杂环境下实时检测果树树干,有助于进一步推动智能化果园机器人的研发与应用。  相似文献   

9.
刘志军 《南方农机》2023,(23):68-73
【目的】解决麦穗检测中麦穗之间相互遮挡、麦穗在图像中难以检测和不同环境造成目标模糊等情况导致麦穗检测精度低的问题。【方法】笔者提出一种基于改进YOLOv5s的算法,通过将数据集同时进行离线增强和在线增强,再将YOLOv5s的骨干网络进行改进,增添具有注意力机制的transformer模块,强化主干网络的全局特征信息提取能力,neck结构由原来的PAFPN改为具有双向加强融合的BiFPN特征融合网络,进行多尺度的特征融合。最后,在head部分使用EIoU-NMS来替代NMS,提高对遮挡麦穗的识别度。【结果】相比于其他改进单一结构的YOLOv5s模型,此综合性改进模型具有更好的检测效果,使mAP@0.5:0.95提高了1.4%,改进的算法比原始YOLOv5s算法的mAP@0.5提高了1.8%。【结论】使用离线增强和在线增强的方式可以使模型的精度有所提升;该模型的改进有效增强了麦穗识别过程中特征融合的效率,提高了麦穗检测的效果,能够为后续相关模型的改进升级提供参考。  相似文献   

10.
柑橘黄龙病严重影响柑橘的产量和品质。在自然背景下,柑橘叶片之间存在相互遮挡以及尺寸变化大的问题,使得遮挡及小尺寸的黄龙病叶片容易漏检,而且由于黄龙病叶片的颜色、纹理特征与柑橘其他病害十分相似,容易存在误检的问题,导致现有的算法对自然背景柑橘黄龙病检测的精度不高。本研究提出了一种结合剪切混合拼接(Shearing mixed splicing,SMS)增广算法和双向特征融合的自然背景柑橘黄龙病检测方法,该方法通过SMS、镜像翻转和旋转方法对训练集和验证集进行了增广,增加了训练集和验证集图像中背景目标的数量和多样性;为了自适应地改变柑橘黄龙病检测中的局部采样点,增大有效感受野,使用可变形卷积替换骨干网络后3个卷积层中所有的标准卷积;为了减小自然背景的影响,使用全局上下文模块对骨干网络后3个卷积层输出的特征图进行特征增强,来建立有效的长距离依赖,以便更好的学习到全局上下文信息;使用双向融合特征金字塔,改善浅层特征和深层特征的信息交流路径,用以降低因柑橘黄龙病叶片尺寸变化大导致的漏检,提高小尺寸的柑橘黄龙病叶片的检测精度。实验结果表明,本研究提出的方法用于自然背景柑橘黄龙病的检测,平均精度可达84.8%,性能优于SSD、RetinaNet、YOLO v3、YOLO v5s、Faster RCNN、Cascade RCNN等目标检测方法。  相似文献   

11.
针对果园目标检测时相机抖动以及物体相对运动导致检测图像模糊的问题,本文提出一种将DeblurGAN-v2去模糊网络和YOLOv5s目标检测网络相融合的D2-YOLO一阶段去模糊识别深度网络,用于检测识别果园模糊场景图像中的障碍物。为了减少融合网络的参数量并提升检测速度,首先将YOLOv5s骨干网络中的标准卷积替换成深度可分离卷积,并且在输出预测端使用CIoU_Loss进行边界框回归预测。融合网络使用改进的CSPDarknet作为骨干网络进行特征提取,将模糊图像恢复原始自然信息后,结合多尺度特征进行模型预测。为了验证本文方法的有效性,选取果园中7种常见的障碍物作为目标检测对象,在Pytorch深度学习框架上进行模型训练和测试。试验结果表明,本文提出的D2-YOLO去模糊识别网络准确率和召回率分别为91.33%和89.12%,与分步式DeblurGAN-v2+YOLOv5s相比提升1.36、2.7个百分点,与YOLOv5s相比分别提升9.54、9.99个百分点,能够满足果园机器人障碍物去模糊识别的准确性和实时性要求。  相似文献   

12.
疏花是梨生产中的重要农艺措施,机械化智能疏花是当今高速发展的疏花方式,花朵与花苞的分类与检测是保证疏花机器正常工作的基本要求。本研究针对目前梨园智能化生产中出现的梨树花序检测与分类问题,提出了一种基于改进YOLOv5s的水平棚架梨园花序识别算法Ghost-YOLOv5s-BiFPN。通过对田间采集的梨树花苞与花朵图像进行标注与数据扩充后送入算法进行训练得到检测模型。Ghost-YOLOv5s-BiFPN运用加权双向特征金字塔网络(Bi-directional Feature Pyramid Network,BiFPN)替换原始的路径聚合网络(Path Aggregation Network,PAN)结构,对网络提取的不同尺寸目标特征进行有效的融合。同时运用Ghost模块替换传统卷积,在不降低准确度的同时减少模型参数量和提升设备运行效率。田间试验结果表明,改进的Ghost-YOLOv5s-BiFPN算法对梨树花序中花苞与花朵的检测精度分别为93.2%和89.4%,两种目标平均精度为91.3%,检测单张图像时间为29 ms,模型大小为7.62 M。相比于原始YOLOv5s算法,检测精度与召回度分别提升了4.2%和2.7%,检测时间和模型参数量分别降低了9 ms和46.6%。本研究提出的算法可对梨树花苞与花朵进行精确的识别和分类,为后续梨园智能化疏花的实现提供技术支持。  相似文献   

13.
针对在“一垄双沟”甘蔗丛高秆作物环境下行人目标检测的重要性及难度问题,提出一种改进YOLOV3算法的甘蔗丛中高秆作物遮挡的行人目标检测算法(YOLOV3-my-prune)。为获得更好的行人特征表达,使用Imgaug库对自制的数据集增强,并结合数据集中行人尺寸特点,使用K-means聚类分析方法,为神经网络重新聚类目标锚箱。对YOLOV3网络改进,设计了在网络全连接层中引入空间金字塔池化模块,并增加第四尺度预测特征图,同时增强网络多尺度特征融合能力及小尺度特征提取能力。完成改进的模型基础训练后,采用通道和层剪枝混合剪枝方法轻量化模型,并在数据集上进行多尺度训练并测试,结果表明:此方法 准确率达80.1%,检测速度为30fps,均有所提升。  相似文献   

14.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

15.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

16.
为实现果实拾捡机器人在光照不均、菠萝与周围环境的颜色相似性及果实间的遮挡和重叠等田间复杂环境下对单类别菠萝的快速准确识别,提出采用深度学习下的深层残差网络改进YOLOv3卷积神经网络结构,通过单个卷积神经网络遍历整个图像,回归果实的位置,将改进的YOLOv3的3个尺度检测分别融合相同尺度模块特征层的信息,在保证识别准确率的情况下,采用多尺度融合训练网络实现田间复杂环境下端对端的单类别菠萝果实检测。最后,对改进的算法进行性能评价与对比试验,结果表明,该算法的检测识别率达到95%左右,较原始方法检测性能提升的同时,检测速度满足实时性要求,该研究为拾捡果实机器人在复杂环境下提高识别菠萝果实的工作效率和环境适应性提供理论基础。  相似文献   

17.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

18.
为精确预测蝴蝶兰产量和对蝴蝶兰的生产进行科学管理,对大苗时期的蝴蝶兰植株花朵和花苞进行识别与检测,统计其花量。由于蝴蝶兰花苞目标体积较小,提出一种基于改进YOLOv5的蝴蝶兰花朵与花苞识别方法。首先,修改颈部网络的结构,在特征金字塔FPN(Feature Pyramid Network)和路径聚合网络PANet(Path Aggregation Network)中引入有利于小目标检测的160×160尺度特征层,以提升对小目标的检测效果;其次,使用K-means++聚类算法针对训练集生成更合适的先验框,并采用载入预训练权重和冻结主干网络的训练方式,以使模型更加容易学习,提高网络模型收敛速度和泛化能力;最后,在颈部网络加入轻量级注意力机制,加强对目标的关注,减少背景干扰,以提升模型的特征提取能力。试验结果显示,该算法对花苞的检测精确率达到89.54%,比改进前提升9.83%;对花苞和花朵的平均精确率达到91.81%,比改进前提升5.56%。该算法有优异的检测精度并有效提高对小目标的检测能力。  相似文献   

19.
为提高草莓的总产量,合理监控和防治草莓病害是有效的手段,提出一种基于改进YOLOv5的草莓病害识别算法。该检测算法以CSPDarknet作为主干特征提取网络,能够有效提高模型的性能和训练效率,并使用EIOU Loss损失函数与K-means聚类算法,来提高模型的收敛速度。同时,在模型中增加CBAM注意力机制来提高检测精度,最终构建基于改进YOLOv5的CBAM-YOLOv5l算法。试验结果表明,改进后的模型较之原始模型,在检测精度上有所提升且依然能保证高效的检测速度。另外,经过训练的CBAM-YOLOv5l目标检测算法在验证集下的总体平均精度达到96.52%,平均检测时间为27.52 ms,对比YOLOv4、YOLOv4-Tiny、Faster_R-CNN等目标检测算法,该检测算法在精度上具有更大的优势,在实际的草莓果园环境中具有良好的鲁棒性与实时性,可以满足草莓病害识别精度的需求,能够可靠地提示草莓健康状态,从而及时地实现精准施药等保护措施。  相似文献   

20.
基于轻量化YOLOv3卷积神经网络的苹果检测方法   总被引:13,自引:0,他引:13  
为使苹果采摘机器人在复杂果树背景下能快速准确地检测出苹果,提出一种轻量化YOLO(You only look once)卷积神经网络(Light-YOLOv3)模型与苹果检测方法。首先,对传统YOLOv3深度卷积神经网络架构进行改进,设计一种同构残差块串联的特征提取网络结构,简化目标检测的特征图尺度,采用深度可分离卷积替换普通卷积,提出一种融合均方误差损失和交叉熵损失的多目标损失函数;其次,开发爬虫程序,从互联网上获取训练数据并进行标注,采用数据增强技术对训练数据进行扩充,并对数据进行归一化,针对Light-YOLOv3网络训练,提出一种基于随机梯度下降(Stochastic gradient descent,SGD)和自适应矩估计(Adaptive moment estimation,Adam)的多阶段学习优化技术;最后,分别在计算机工作站和嵌入式开发板上进行了复杂果树背景下的苹果检测实验。结果表明,基于轻量化YOLOv3网络的苹果检测方法在检测速度和准确率方面均有显著的提高,在工作站和嵌入式开发板上的检测速度分别为116.96、7.59 f/s,F1值为94.57%,平均精度均值(Mean average precision,mAP)为94.69%。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号