首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 218 毫秒
1.
针对传统的目标检测方法依赖人工提取特征,存在检测效率低、鲁棒性差和实时性差等缺陷。本文根据刺梨果实在自然环境中的生长特点,采用带有残差模块的YOLO v3神经网络进行刺梨果实识别模型的训练,该网络通过提取不同卷积层的特征图,将深层特征图进行上采样后与浅层特征图进行多次融合,以提取图像的更深层次的特征信息。通过对该网络的相关参数进行优化和改进,并对未参与模型训练的70幅刺梨图像进行检测,实验表明,本文算法能够有效地对自然环境下的11类刺梨果实进行识别,各类识别平均准确率为88.5%,平均召回率为91.5%,F_1平均值为89.9%,识别速率约为20 f/s。本文算法在刺梨果实的识别上取得了理想的识别效果。  相似文献   

2.
基于卷积神经网络的草莓识别方法   总被引:6,自引:0,他引:6  
针对目前草莓识别定位大多在简单环境下进行、识别效率较低的问题,提出利用改进的YOLOv3识别方法在复杂环境中对草莓进行连续识别检测。通过训练大量的草莓图像数据集,得到最优权值模型,其测试集的精度均值(MAP)达到87. 51%;成熟草莓的识别准确率为97. 14%,召回率为94. 46%;未成熟草莓的识别准确率为96. 51%,召回率为93. 61%。在模型测试阶段,针对夜晚环境下草莓图像模糊的问题,采用伽马变换得到的增强图像较原图识别正确率有显著提升。以调和平均值(F)作为综合评价指标,对比多种识别方法在不同果实数量、不同时间段及视频测试下的实际检测结果,结果表明,YOLOv3算法F值最高,每帧图像的平均检测时间为34. 99 ms,视频的平均检测速率为58. 1 f/s,模型的识别正确率及速率均优于其他算法,满足实时性要求。同时,该方法在果实遮挡、重叠、密集等复杂环境下具有良好的鲁棒性。  相似文献   

3.
基于机器视觉的水果采摘机器人目标识别方法   总被引:2,自引:0,他引:2  
为解决水果采摘机器人快速、准确识别目标问题,提出一种基于机器视觉的类球状水果识别方法。首先采用基于颜色归一化差的图像分割算法,将果实从背景中分割出来;然后利用单像素边缘跟踪算法提取果实边缘,并在跟踪过程中利用直线投影法剔除角点,使交叉边缘在角点处断开,提高遮挡情况下识别的准确性;最后通过最小二乘法检测圆形,识别果实。实验结果表明,算法处理中等大小的图像平均用时83.548ms,识别准确率达95%以上。算法快速、鲁棒,可以满足机器人实时作业要求。  相似文献   

4.
冀汶莉  刘洲  邢海花 《农业机械学报》2024,55(1):212-222,293
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。  相似文献   

5.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

6.
基于计算机视觉的成熟番茄识别研究   总被引:1,自引:0,他引:1  
以番茄图像为研究对象,提出一种成熟番茄识别方法。首先,以HSI模型中的色调分量为基础进行图像分割,提取出成熟番茄目标图像;然后,再采用最大方差自动取阈值法进行分割处理,对得到的目标图像进行轮廓提取;最后,对轮廓曲线采用Hough变换的方法进行识别,以同一个轮廓圆识别的多个极值点的均值作为最终识别结果,在Hough变换之前采用最小外接矩形法进行有效区域标记,提高了Hough变换的效率。通过多幅番茄果实图像的仿真测试表明:本算法对果实遮掩度为0、小于50%、大于50%这3种情况的识别率分别为78.7%、6 8.1%、4 1.9%,平均识别率达到7 0.6%。本算法对于成熟番茄可以较好识别,尤其对于存在重叠情况的番茄,识别准确率较高。  相似文献   

7.
基于多源图像融合的自然环境下番茄果实识别   总被引:1,自引:0,他引:1  
蔬果采摘机器人面对的自然场景复杂多变,为准确识别和分割目标果实,实现高成功率采收,提出基于多源图像融合的识别方法。首先,针对在不同自然场景下单图像通道信息不充分问题,提出融合RGB图像、深度图像和红外图像的多源信息融合方法,实现了机器人能够适应自然环境中不同光线条件的番茄果实。其次,针对传统机器学习训练样本标注低效问题,提出聚类方法对样本进行辅助快速标注,完成模型训练;最终,建立扩展Mask R-CNN深度学习算法模型,进行采摘机器人在线果实识别。实验结果表明,扩展Mask R-CNN算法模型在测试集中的检测准确率为98.3%、交并比为0.916,可以满足番茄果实识别要求;在不同光线条件下,与Otsu阈值分割算法相比,扩展Mask R-CNN算法模型能够区分粘连果实,分割结果清晰完整,具有更强的抗干扰能力。  相似文献   

8.
基于改进凸壳理论的遮挡油茶果定位检测算法   总被引:3,自引:0,他引:3  
李立君  阳涵疆 《农业机械学报》2016,47(12):285-292,346
针对传统凸壳理论进行遮挡果实定位检测时由于过多剔除有效轮廓,造成目标果实定位误差较大,甚至无法识别目标果实的问题,提出了一种基于改进凸壳理论的遮挡油茶果定位检测算法。首先利用基于颜色特征的阈值分割法对油茶果遮挡图像进行目标分割,并通过预处理操作剔除图像中的背景噪声,获得目标果实的二值图像;然后采用凹点搜寻算法检测重叠目标的凹点,并根据凹点对重叠目标进行分离,获得相互独立的目标图像;再构建各独立目标的凸包,并提取凸壳,利用轮廓提取算法确定各独立目标凸壳上的有效轮廓;最后根据提取的有效轮廓求解目标果实形心坐标和半径,完成遮挡果实的定位检测。试验结果表明,改进算法平均耗时为0.491 s,比传统凸壳方法增加了24.07%,但其仅占油茶果采摘机器人单个果实采摘周期的2.46%,对于图像中的遮挡油茶果目标,改进方法的识别率达到93.21%,相比传统凸壳方法提升了7.47个百分点,改进算法的平均定位检测误差和平均重合度分别为5.53%和93.43%,比传统凸壳算法平均定位误差降低了6.22个百分点,平均重合度提高了6.79个百分点,表明文中所提出的方法能够较好地识别和定位自然环境中的遮挡油茶果。  相似文献   

9.
自然场景下苹果目标的精确识别与定位是智慧农业信息感知与获取领域的重要内容。为了解决自然场景下苹果目标识别与定位易受枝叶遮挡的问题,在K-means聚类分割算法的基础上,提出了基于凸壳原理的目标识别算法,并与基于去伪轮廓的目标识别算法和全轮廓拟合目标识别算法作了对比。基于凸壳原理的目标识别算法利用了苹果近似圆形的形状特性,结合K-means算法与最大类间方差算法将果实与背景分离,由凸壳原理得到果实目标的凸壳多边形,对凸壳多边形进行圆拟合,标定出果实位置。为验证算法有效性,对自然场景下的157幅苹果图像进行了测试,基于凸壳原理的目标识别算法、基于去伪轮廓的目标识别方法和全轮廓拟合目标识别方法的重叠率均值分别为83.7%、79.5%和70.3%,假阳性率均值分别为2.9%、1.7%和1.2%,假阴性率均值分别为16.3%、20.5%和29.7%。结果表明,与上面两种对比算法相比较,基于凸壳原理的目标识别算法识别效果更好且无识别错误的情况,该算法可为自然环境下的果实识别与分割问题提供借鉴与参考。  相似文献   

10.
疏花是梨生产中的重要农艺措施,机械化智能疏花是当今高速发展的疏花方式,花朵与花苞的分类与检测是保证疏花机器正常工作的基本要求。本研究针对目前梨园智能化生产中出现的梨树花序检测与分类问题,提出了一种基于改进YOLOv5s的水平棚架梨园花序识别算法Ghost-YOLOv5s-BiFPN。通过对田间采集的梨树花苞与花朵图像进行标注与数据扩充后送入算法进行训练得到检测模型。Ghost-YOLOv5s-BiFPN运用加权双向特征金字塔网络(Bi-directional Feature Pyramid Network,BiFPN)替换原始的路径聚合网络(Path Aggregation Network,PAN)结构,对网络提取的不同尺寸目标特征进行有效的融合。同时运用Ghost模块替换传统卷积,在不降低准确度的同时减少模型参数量和提升设备运行效率。田间试验结果表明,改进的Ghost-YOLOv5s-BiFPN算法对梨树花序中花苞与花朵的检测精度分别为93.2%和89.4%,两种目标平均精度为91.3%,检测单张图像时间为29 ms,模型大小为7.62 M。相比于原始YOLOv5s算法,检测精度与召回度分别提升了4.2%和2.7%,检测时间和模型参数量分别降低了9 ms和46.6%。本研究提出的算法可对梨树花苞与花朵进行精确的识别和分类,为后续梨园智能化疏花的实现提供技术支持。  相似文献   

11.
针对油茶果体积小、分布密集、颜色多变等特点,为实现自然复杂场景下油茶果的快速精准定位,并依据果实的疏密分布,确定恰当的自动振荡采收装置夹持位置,利用YOLO v5s卷积神经网络模型,开展了自然环境下油茶果图像检测方法研究,用3 296幅油茶果图像制作PASCAL VOC的数据集,对网络进行了150轮训练,得到的最优权值模型准确率为90.73%,召回率为98.38%,综合评价指标为94.4%,平均检测精度为98.71%,单幅图像检测时间为12.7 ms,模型占内存空间为14.08 MB。与目前主流的一阶检测算法YOLO v4-tiny和RetinaNet相比,其精确率分别提高了1.99个百分点和4.50个百分点,召回率分别提高了9.41个百分点和10.77个百分点,时间分别降低了96.39%和96.25%。同时结果表明,该模型对密集、遮挡、昏暗环境和模糊虚化情况下的果实均能实现高精度识别与定位,具有较强的鲁棒性。研究结果可为自然复杂环境下油茶果机械采收及小目标检测等研究提供借鉴。  相似文献   

12.
针对不同光照,遮挡重叠,大视场等复杂环境下,自动采摘机器人无法快速准确地识别果蔬目标的问题,提出一种用于复杂环境下果蔬检测的改进YOLOv5(You Only Look Once v5)算法。首先,在主干网络Backbone中的CBL模块中嵌入卷积注意力机制(Convolutional Block Attention Module,CBAM),提高目标特征的提取能力。其次,引入完全交并比非极大抑制算法(Complete IOU Non maximum suppression,CIOU-NMS),考虑长宽边长真实差,提高回归精度。最后,用加权双向特征金字塔网络(Bidirectional Feature Pyramid Network,BiFPN)替换原始YOLOv5的路径聚合网络(PANet),融合多尺度特征提高识别精度和准确率。以苹果为例进行试验,结果表明:改进YOLOv5算法精准率为94.7%,召回率为87%,平均精度为92.5%,相比于原始YOLOv5算法AP提高3.5%,在GPU下的检测时间为11 ms,可以实现复杂情况下的果蔬快速准确识别。  相似文献   

13.
为实现果实拾捡机器人在光照不均、菠萝与周围环境的颜色相似性及果实间的遮挡和重叠等田间复杂环境下对单类别菠萝的快速准确识别,提出采用深度学习下的深层残差网络改进YOLOv3卷积神经网络结构,通过单个卷积神经网络遍历整个图像,回归果实的位置,将改进的YOLOv3的3个尺度检测分别融合相同尺度模块特征层的信息,在保证识别准确率的情况下,采用多尺度融合训练网络实现田间复杂环境下端对端的单类别菠萝果实检测。最后,对改进的算法进行性能评价与对比试验,结果表明,该算法的检测识别率达到95%左右,较原始方法检测性能提升的同时,检测速度满足实时性要求,该研究为拾捡果实机器人在复杂环境下提高识别菠萝果实的工作效率和环境适应性提供理论基础。  相似文献   

14.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

15.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

16.
基于神经网络的实蝇成虫图像识别算法   总被引:2,自引:0,他引:2  
为了实现从图像中快速、准确地识别双翅目果实蝇害虫,本文提出一种基于神经网络学习模型的识别算法。该算法首先采用Hough变换对实蝇样本图像的双翅边缘进行直线检测,使图像中实蝇旋转为躯体朝上形态,同时限定条纹所在的有效区域。结合HSV色彩空间锁定胸背板上的条纹区,对该区域进一步处理,根据中心条纹形状特征的描述方法,提取出形状特征参数,定义4种实蝇形态特征向量。采集90幅实蝇图像中各目标的4种特征因子,建立BP神经网络对数据集进行训练,从而得到用于实蝇分类的神经网络模型参数。试验结果表明,该方法对双翅目实蝇成虫的识别效果具有较好的准确性和实时性,对橘小实蝇、南瓜实蝇和瓜实蝇的识别准确率分别为95.45%、93.33%和97.83%,总体准确率为95.56%,单次识别平均耗时500ms。  相似文献   

17.
果树测产是果园管理的重要环节之一,为提升苹果果园原位测产的准确性,本研究提出一种包含改进型YOLOv5果实检测算法与产量拟合网络的产量测定方法。利用无人机及树莓派摄像头采集摘袋后不同着色时间的苹果果园原位图像,形成样本数据集;通过更换深度可分离卷积和添加注意力机制模块对YOLOv5算法进行改进,解决网络中存在的特征提取时无注意力偏好问题和参数冗余问题,从而提升检测准确度,降低网络参数带来的计算负担;将图片作为输入得到估测果实数量以及边界框面总积。以上述检测结果作为输入、实际产量作为输出,训练产量拟合网络,得到最终测产模型。测产试验结果表明,改进型YOLOv5果实检测算法可以在提高轻量化程度的同时提升识别准确率,与改进前相比,检测速度最大可提升15.37%,平均mAP最高达到96.79%;在不同数据集下的测试结果表明,光照条件、着色时间以及背景有无白布均对算法准确率有一定影响;产量拟合网络可以较好地预测出果树产量,在训练集和测试集的决定系数R2分别为0.7967和0.7982,均方根误差RMSE分别为1.5317和1.4021 ㎏,不同产量样本的预测精度基本稳定;果树测产模型在背景有白布和无白布的条件下,相对误差范围分别在7%以内和13%以内。本研究提出的基于轻量化改进YOLOv5的果树产量测定方法具有良好的精度和有效性,基本可以满足自然环境下树上苹果的测产要求,为现代果园环境下的智能农业装备提供技术参考。  相似文献   

18.
面向果园运输车果品采收自主运输作业场景,提出了一种基于VINS-MONO和改进YOLO v4-Tiny的果园自主寻筐方法。首先基于VINS-MONO视觉惯性里程计算法,进行果园运输车位置姿态的实时估计。然后基于改进YOLO v4-Tiny目标检测算法,根据图像数据进行果筐实时目标检测并获取对应深度信息。其次根据运输车当前位置姿态、果筐深度信息以及深度相机内参,进行被识别果筐位置更新。最后基于三次B样条曲线拟合原理,以被识别果筐位置为控制点,进行寻筐路径实时拟合,为果园运输车抵近果筐提供路线引导。试验结果表明:改进YOLO v4-Tiny果筐识别模型的平均识别精度为93.96%,平均推理时间为14.7 ms, 4 m内的果筐距离定位误差小于4.02%,果筐角度定位误差小于3°,果园运输车实测平均行驶速度为3.3 km/h,果筐搜寻路线平均更新时间为0.092 s,能够在果树行间和果园道路两种作业环境下稳定实现自主寻筐。该方法能够为果园运输车提供自主寻筐路径引导,为其视觉导航提供研究参考。  相似文献   

19.
针对果蔬识别中识别效率低、成本高等问题,本文提出了基于残差块和注意力机制的果蔬识别模型,并成功部署于果蔬智能识别设备。果蔬自动识别装置由Raspberry Pi、STM32F103ZET6、摄像头、称量传感器、处理器、显示屏、微型打印机、扎口机以及电源等部分组成。中央控制器与显示屏进行交互实时显示各种参数,通过摄像头与称量传感器采集待测物体图像与待测物体质量,由部署于Raspberry Pi的果蔬自动识别模型对果蔬进行精准识别,同时协同单片机STM32F103ZET6将果蔬相关信息打印并控制扎口机进行封口打包。本文以YOLO v5网络为基础,通过增加残差块与注意力机制构建果蔬自动识别模型RB+CBAM-YOLO v5。以自制的数据集训练网络,将6种网络进行对比试验,并选择最优网络进行设备端检测试验。试验结果表明,RB+CBAM-YOLO v5的精确率、召回率与mAP0.5分别为83.55%、96.08%、96.20%,较YOLO v5提升4.47、1.10、0.90个百分点。将RB+CBAM-YOLO v5模型部署于嵌入式设备Raspberry Pi中,设备可实现精准识别、自动称量、打印凭条以及快速打包等功能,可满足果蔬识别以及无人售卖装置的需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号