首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 406 毫秒
1.
为实现割草机器人在计算资源有限的情况下快速、准确地定位并识别工作环境中的障碍物,提出一种基于滤波器剪枝的改进YOLOv5s深度学习模型的割草机器人工作环境下障碍物的检测方法。首先,将YOLOv5模型中的Bottleneck残差块改为分层残差结构,以更细粒度地表示多尺度特征,同时增加网络感受野;另外,在残差块尾部加入SE模块,用来对特征图重新标定;其次,对改进后的算法进行滤波器剪枝;最后,针对割草机器人工作环境中的常见障碍物建立相关数据集,并使用剪枝后改进YOLOv5s作为深度学习模型进行检测。试验结果表明:改进后的YOLOv5模型大小减少188%,mAP增加0.1%。对改进YOLOv5模型进行剪枝后,比原YOLOv5模型计算量降低36.6%,模型大小降低333%,推理速度减少1.9 ms。剪枝后本文模型的mAP值分别比YOLOv4,YOLOv4-tiny,YOLOv3,YOLOv3-tiny高1.3%,9.5%,5.8%,22.1%。  相似文献   

2.
毛桃等果实的准确检测是实现机械化、智能化农艺管理的必要前提。然而,由于光照不均和严重遮挡,在果园中实现毛桃,尤其是套袋毛桃的检测一直面临着挑战。本研究基于改进YOLOv5s和多模态视觉数据提出了面向机械化采摘的毛桃多分类准确检测。具体地,构建了一个多类标签的裸桃和套袋毛桃的RGB-D数据集,包括4127组由消费级RGB-D相机获取的像素对齐的彩色、深度和红外图像。随后,通过引入方向感知和位置敏感的注意力机制,提出了改进的轻量级YOLOv5s(小深度)模型,该模型可以沿一个空间方向捕捉长距离依赖,并沿另一个空间方向保留准确的位置信息,提高毛桃检测精度。同时,通过将卷积操作分解为深度方向的卷积与宽度、高度方向的卷积,使用深度可分离卷积在保持模型检测准确性的同时减少模型的计算量、训练和推理时间。实验结果表明,使用多模态视觉数据的改进YOLOv5s模型在复杂光照和严重遮挡环境下,对裸桃和套袋毛桃的平均精度(Mean Average Precision,mAP)分别为98.6%和88.9%,比仅使用RGB图像提高了5.3%和16.5%,比YOLOv5s提高了2.8%和6.2%。在套袋毛桃检测方面,改进YOLOv5s的mAP比YOLOX-Nano、PP-YOLO-Tiny和EfficientDet-D0分别提升了16.3%、8.1%和4.5%。此外,多模态图像、改进YOLOv5s对提升自然果园中的裸桃和套袋毛桃的准确检测均有贡献,所提出的改进YOLOv5s模型在检测公开数据集中的富士苹果和猕猴桃时,也获得了优于传统方法的结果,验证了所提出的模型具有良好的泛化能力。最后,在主流移动式硬件平台上,改进后的YOLOv5s模型使用五通道多模态图像时检测速度可达每秒19幅,能够实现毛桃的实时检测。上述结果证明了改进的YOLOv5s网络和含多类标签的多模态视觉数据在实现果实自动采摘系统视觉智能方面的应用潜力。  相似文献   

3.
水果是我国重要的经济作物之一,果业对于农民的增收和国家经济的发展都具有重要意义。为实现复杂自然环境下对果树树干的识别,提升当前果园生产水平,本文提出一种以YOLOv5模型为基线的果树树干识别检测模型(YOLOv5-SR)。在YOLOv5的backbone网络中以Rep VGG模块代替部分C3模块,利用Rep VGG模块结构重参数化特点实现提升网络模型的检测速度,满足实时性的要求;其次,在网络模型中引入Sim AM注意力机制模块,利用Sim AM注意力机制无参的特点在不影响模型速度的情况下加强对检测目标的提取能力,提升模型的检测精度。实验结果表明,改进后的模型相比较于YOLOv5,检测速度提升了10%,平均精度均值提升了6%,实现速度与精度上的提升。该研究满足在复杂环境下实时检测果树树干,有助于进一步推动智能化果园机器人的研发与应用。  相似文献   

4.
曾俊  陈仁凡  邹腾跃 《南方农机》2023,(24):24-27+41
【目的】解决自然环境下不同成熟度桃子快速准确检测的问题,课题组提出一种基于改进YOLOv5s的目标检测算法YOLO-Faster。【方法】使用YOLOv5s网络模型作为基础网络,将主干特征提取网络替换为FasterNet,使模型轻量化,并在主干和颈部之间增加串联的CBAM卷积注意力模块和常规卷积块,增强对图像重要特征的捕捉与表达,同时引入SIoU损失函数缓解预测框与真实框之间方向的不匹配。【结果】改进后模型的m AP为88.6%,与YOLOv5s相比提升1个百分点,模型权重缩减39.4%,浮点运算量降低44.3%,在GPU、CPU上的单张图像平均检测时间分别减少12.6%和24%。此外,本研究将训练好的模型部署到嵌入式设备Jetson Nano上,模型在Jetson Nano上的检测时间比YOLOv5s减少30.4%。【结论】改进后的轻量级模型能够快速准确地检测自然环境下不同成熟度的桃子,可以为桃子采摘机器人的视觉识别系统提供技术支持。  相似文献   

5.
基于改进YOLOv3的温室番茄果实识别估产方法   总被引:3,自引:0,他引:3  
为实现温室番茄产量智能化在线评估,研究基于改进YOLOv3的温室番茄红果和绿果识别方法,以对自然生长状态下番茄果实进行计数估产。根据工厂化番茄种植工况条件,设计产量估计视觉系统;提出基于广义交并比(GIOU)的位置损失函数,对传统YOLOv3算法损失函数进行改进,其尺度不变特征可有效提高形态各异果实目标的描述精度。在样本图像数据构建和标注基础上,用K-means聚类算法分别获得9个不同规格的先验框,并根据特征图层次等级进行分配。通过模型训练和评价得到最优估产模型的平均精度均值(mAP)为95.7%,单幅图像处理耗时15 ms。现场试验表明,改进的YOLOv3模型对于番茄红果、绿果的估产精度均得到改善,总体估产精度达到96.3%,比传统YOLOv3模型估产精度提高2.7%,并且对于密集和受遮挡果实具有更好的识别效果。该研究结果可以为智能化估产系统研发提供技术支撑。  相似文献   

6.
为实现对不同品种核桃的分类与定位,提出一种基于深度学习的核桃检测方法。首先,以新疆南疆地区主产的三种核桃为对象进行图像采集,并对图像进行翻转、裁剪、去噪、光照变换等操作制作核桃数据集;然后,采用基于YOLOv5的检测模型进行试验,并与YOLOv3、YOLOv4和Faster RCNN算法进行比较。结果表明,基于YOLOv5的模型对新2、新光和温185核桃检测的平均精度均值分别为99.5%、98.4%和97.1%,单幅图像检测耗时为7 ms。在相同数据集、相同试验环境下,该模型的检测速度是Faster RCNN的7倍,该模型的检测精度比YOLOv4高2.8%且模型大小仅为YOLOv4的1/14。试验结果表明,基于YOLOv5的核桃检测方法在检测精度和速度上是所有对比算法中最高的,适合本研究的检测需求,可为机器人自主分拣核桃提供研究基础。  相似文献   

7.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

8.
鸡只的健康养殖对于提高其产量和品质具有重要意义,传统的养殖模式缺乏专业的养殖指导和及时的疫病防控,无法满足健康养殖的要求,因此需要对鸡只行为进行识别,保证鸡只的健康生长。目前鸡只养殖过程的行为识别多采用人工观察或电子标签等方式,存在主观性强、耗时耗力的缺点。针对舍饲散养模式下鸡只外形、动作相似,相互之间易遮挡等问题,提出了基于YOLOv5x改进的YOLOv5x-Swin-TransformerV2-SPPF模型,在利用数据增强等技术建立鸡只行为识别数据集的基础上,通过改进主干网络、加强特征提取网络、增加小目标检测层及优化损失函数等方式,实现了对鸡只站立、采食、趴卧、饮水4种基本行为的自动识别,各行为平均精确率分别为90.8%,84.3%,92.8%,91.5%,4种行为识别的平均精确率均值(mAP)为89.9%,较改进前均值平均精度比YOLOv3、YOLOv5s、YOLOv5x分别提升了9.5%、4.37%、3.32%,通过结果分析验证了改进模型的有效性,达到利用深度学习技术进行鸡只的行为识别,实现对鸡只行为活动的实时监测,对于实现健康养殖和可持续发展的目标具有重要意义。  相似文献   

9.
疏花是梨生产中的重要农艺措施,机械化智能疏花是当今高速发展的疏花方式,花朵与花苞的分类与检测是保证疏花机器正常工作的基本要求。本研究针对目前梨园智能化生产中出现的梨树花序检测与分类问题,提出了一种基于改进YOLOv5s的水平棚架梨园花序识别算法Ghost-YOLOv5s-BiFPN。通过对田间采集的梨树花苞与花朵图像进行标注与数据扩充后送入算法进行训练得到检测模型。Ghost-YOLOv5s-BiFPN运用加权双向特征金字塔网络(Bi-directional Feature Pyramid Network,BiFPN)替换原始的路径聚合网络(Path Aggregation Network,PAN)结构,对网络提取的不同尺寸目标特征进行有效的融合。同时运用Ghost模块替换传统卷积,在不降低准确度的同时减少模型参数量和提升设备运行效率。田间试验结果表明,改进的Ghost-YOLOv5s-BiFPN算法对梨树花序中花苞与花朵的检测精度分别为93.2%和89.4%,两种目标平均精度为91.3%,检测单张图像时间为29 ms,模型大小为7.62 M。相比于原始YOLOv5s算法,检测精度与召回度分别提升了4.2%和2.7%,检测时间和模型参数量分别降低了9 ms和46.6%。本研究提出的算法可对梨树花苞与花朵进行精确的识别和分类,为后续梨园智能化疏花的实现提供技术支持。  相似文献   

10.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

11.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

12.
为提高草莓的总产量,合理监控和防治草莓病害是有效的手段,提出一种基于改进YOLOv5的草莓病害识别算法。该检测算法以CSPDarknet作为主干特征提取网络,能够有效提高模型的性能和训练效率,并使用EIOU Loss损失函数与K-means聚类算法,来提高模型的收敛速度。同时,在模型中增加CBAM注意力机制来提高检测精度,最终构建基于改进YOLOv5的CBAM-YOLOv5l算法。试验结果表明,改进后的模型较之原始模型,在检测精度上有所提升且依然能保证高效的检测速度。另外,经过训练的CBAM-YOLOv5l目标检测算法在验证集下的总体平均精度达到96.52%,平均检测时间为27.52 ms,对比YOLOv4、YOLOv4-Tiny、Faster_R-CNN等目标检测算法,该检测算法在精度上具有更大的优势,在实际的草莓果园环境中具有良好的鲁棒性与实时性,可以满足草莓病害识别精度的需求,能够可靠地提示草莓健康状态,从而及时地实现精准施药等保护措施。  相似文献   

13.
针对现有花椒簇检测算法模型参数量多、计算量大、检测速度低、很难部署到嵌入式设备的问题,提出一种基于轻量化YOLOv5s的花椒簇检测算法模型。首先将ShuffleNet v2主干网络替代原YOLOv5s中的主干网络进行重构;同时将SPPF嵌入至ShuffleNet v2骨干中;其次引入轻量级注意力机制CBAM;最后使用SIoU_Loss代替CIoU_Loss作为回归损失函数。试验结果表明:改进后的轻量化YOLOv5s网络参数降低85.6%,计算量降低87.7%,对花椒簇的检测精度mAP@0.5达到92.6%,较原YOLOv5s模型提高3.4%,mAP@0.5:0.95达到61.4%,检测时间为11 ms,相比原模型16 ms缩短31.3%,可以满足在现场环境下对花椒簇的检测。  相似文献   

14.
刘志军 《南方农机》2023,(23):68-73
【目的】解决麦穗检测中麦穗之间相互遮挡、麦穗在图像中难以检测和不同环境造成目标模糊等情况导致麦穗检测精度低的问题。【方法】笔者提出一种基于改进YOLOv5s的算法,通过将数据集同时进行离线增强和在线增强,再将YOLOv5s的骨干网络进行改进,增添具有注意力机制的transformer模块,强化主干网络的全局特征信息提取能力,neck结构由原来的PAFPN改为具有双向加强融合的BiFPN特征融合网络,进行多尺度的特征融合。最后,在head部分使用EIoU-NMS来替代NMS,提高对遮挡麦穗的识别度。【结果】相比于其他改进单一结构的YOLOv5s模型,此综合性改进模型具有更好的检测效果,使mAP@0.5:0.95提高了1.4%,改进的算法比原始YOLOv5s算法的mAP@0.5提高了1.8%。【结论】使用离线增强和在线增强的方式可以使模型的精度有所提升;该模型的改进有效增强了麦穗识别过程中特征融合的效率,提高了麦穗检测的效果,能够为后续相关模型的改进升级提供参考。  相似文献   

15.
基于改进YOLOv3网络模型的茶草位置检测算法   总被引:1,自引:0,他引:1  
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进 YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。  相似文献   

16.
【目的】为在养殖场实现非接触对病死、死因不明或染疫猪猪头进行目标检测。【方法】课题组提出了一种基于YOLOv3的病死猪猪头的识别方法,将采集的病死猪图片通过处理制成数据集,并按一定比例分成训练验证集与测试集,通过YOLOv3模型训练,得到预训练权重参数,用评价指标对模型检测效果进行评估,从而获得最优模型的训练测试比。【结果】在训练测试比为8∶2时,YOLOv3算法模型对病死猪猪头的识别平均精度值达91.74%,准确率达95.56%,召回率达89.58%,满足目标检测精度要求,且该模型的平均准确率、准确率、召回率均高于SSD和FasterR-CNN算法模型。【结论】YOLOv3算法模型有助于在对病死猪进行无害化处理时,为机械手提供抓取目标,实现处理设备的智能化、无人化发展。  相似文献   

17.
[目的/意义]针对小麦叶片病虫害在自然环境下形态和颜色特征较为复杂、区分度较低等特点,提出一种高质量高效的病虫害检测模型,即YOLOv8-SS (You Only Look Once Version 8-SS),为病虫害的预防与科学化治理提供准确的依据。[方法]基于YOLOv8算法,采用改进的轻量级卷积神经网络ShuffleNet V2作为主干网络提取图像特征即YOLOv8-S,在保持检测精度的同时,减少模型的参数数量和计算负载;在此基础上增加小目标检测层和注意力机制SEnet (Squeeze and Excitation Network),对YOLOv8-S进行改进,在不降低检测速度和不损失模型轻量化程度的情况下提高检测精度,提出YOLOv8-SS小麦叶片病虫害检测模型。[结果与讨论]YOLOv8-SS模型在实验数据集上的平均识别精度和检测准确率分别达89.41%和91.00%,对比原模型分别提高10.11%和7.42%。因此,本研究所提出的方法可显著提高农作物病虫害的检测鲁棒性,并增强模型对小目标图像特征的提取能力,从而高效准确地进行病虫害的检测和识别。[结论]本研究使用的方法具...  相似文献   

18.
为实现饮料生产线PET饮料瓶液位检测系统集成化和简单化,使用机器视觉方法取代传统传感器触发PET饮料瓶装液位检测程序,实现生产线PET瓶装饮料液位快速识别定位,提出了基于改进YOLOv7的生产线PET瓶装饮料液位快速识别与定位方法。在原YOLOv7的基础上,将原SPPCSPC池化金字塔结构改进为更快的SPPFCSPC结构,并使用SIoU损失函数对原有损失函数进行改进。通过实测实验,改进YOLOv7液位识别模型对包含有色彩失真和噪点的PET饮料瓶身、瓶装液位识别精度为98.9%、96.3%,且单幅图像识别并框定时间均长为12.1ms。且模型能在采集图像样本色彩失真、多噪点和图像旋转情况下仍能实现高精度液位识别与定位。  相似文献   

19.
针对果园目标检测时相机抖动以及物体相对运动导致检测图像模糊的问题,本文提出一种将DeblurGAN-v2去模糊网络和YOLOv5s目标检测网络相融合的D2-YOLO一阶段去模糊识别深度网络,用于检测识别果园模糊场景图像中的障碍物。为了减少融合网络的参数量并提升检测速度,首先将YOLOv5s骨干网络中的标准卷积替换成深度可分离卷积,并且在输出预测端使用CIoU_Loss进行边界框回归预测。融合网络使用改进的CSPDarknet作为骨干网络进行特征提取,将模糊图像恢复原始自然信息后,结合多尺度特征进行模型预测。为了验证本文方法的有效性,选取果园中7种常见的障碍物作为目标检测对象,在Pytorch深度学习框架上进行模型训练和测试。试验结果表明,本文提出的D2-YOLO去模糊识别网络准确率和召回率分别为91.33%和89.12%,与分步式DeblurGAN-v2+YOLOv5s相比提升1.36、2.7个百分点,与YOLOv5s相比分别提升9.54、9.99个百分点,能够满足果园机器人障碍物去模糊识别的准确性和实时性要求。  相似文献   

20.
为探索平贝母在干燥过程中的内部水分变化规律,实现对其含水率的实时监测,为平贝母的干燥工艺和过程设计提供理论依据,利用干燥箱分别在45、55、65℃条件下获得平贝母的热风干燥特性曲线,并以R2、χ2和RMSE为评价指标,采用常用的4种经典干燥模型建立平贝母干燥动力学模型.试验结果表明:Weibull模型与其他干燥模型相比...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号