首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 765 毫秒
1.
针对甜菜机械化收获中机收甜菜识别不精确致使破损率计算不准确的问题,提出一种基于YOLOv4的机收甜菜破损检测方法。利用不同距离、不同角度和不同遮挡程度的甜菜照片制作数据集,对基于YOLOv4的机收甜菜破损检测模型进行训练和测试。测试结果表明:基于YOLOv4的机收甜菜破损检测模型识别完整甜菜精确率和召回率分别为94.02%和91.13%,识别破损甜菜的精确率和召回率分别为96.68%和95.21%,破损检测模型的mAP值为96.44%,比Faster R-CNN和SSD模型的mAP值分别高2.62%和5.65%。由此可得,提出的基于YOLOv4的机收甜菜破损检测模型可以更准确地完成对机收甜菜中完整甜菜和破损甜菜的识别,满足甜菜破损率计算的需求。  相似文献   

2.
猪只盘点是规模化养殖中的重要环节,为生猪精准饲喂和资产管理提供了依据。人工盘点不仅耗时低效,而且容易出错。当前已有基于深度学习的生猪智能盘点算法,但在遮挡重叠、光照等复杂场景下盘点精度较低。为提高复杂场景下生猪盘点的精度,提出了一种基于改进YOLO v5n的猪只盘点算法。该算法从提升猪只目标检测性能出发,构建了一个多场景的生猪数据集;其次,在主干网络中引入SE-Net通道注意力模块,引导模型更加关注遮挡条件下猪只目标信息的通道特征。同时,增加了检测层进行多尺度特征融合处理,使模型更容易学习收敛并预测不同尺度的猪只对象,提升模型遮挡场景的检测性能;最后,对边界框损失函数以及非极大值抑制处理进行了改进,使模型对遮挡的目标有更好的识别效果。实验结果表明,与原YOLO v5n算法相比,改进算法的平均绝对误差(MAE)、均方根误差(RMSE)以及漏检率分别降低0.509、0.708以及3.02个百分点,平均精度(AP)提高1.62个百分点,达到99.39%,在复杂遮挡重叠场景下具有较优的精确度和鲁棒性。算法的MAE为0.173,与猪只盘点算法CClusnet、CCNN和PCN相比,分别降低0.2...  相似文献   

3.
为实现对不同品种核桃的分类与定位,提出一种基于深度学习的核桃检测方法。首先,以新疆南疆地区主产的三种核桃为对象进行图像采集,并对图像进行翻转、裁剪、去噪、光照变换等操作制作核桃数据集;然后,采用基于YOLOv5的检测模型进行试验,并与YOLOv3、YOLOv4和Faster RCNN算法进行比较。结果表明,基于YOLOv5的模型对新2、新光和温185核桃检测的平均精度均值分别为99.5%、98.4%和97.1%,单幅图像检测耗时为7 ms。在相同数据集、相同试验环境下,该模型的检测速度是Faster RCNN的7倍,该模型的检测精度比YOLOv4高2.8%且模型大小仅为YOLOv4的1/14。试验结果表明,基于YOLOv5的核桃检测方法在检测精度和速度上是所有对比算法中最高的,适合本研究的检测需求,可为机器人自主分拣核桃提供研究基础。  相似文献   

4.
目前猪群图像检测均为基于水平框的目标检测算法,对于图像中猪体粘连和相互遮挡情况检测率较低,针对图像中的猪只长宽比例较大和可能发生任意角度旋转的特点,提出了一种基于双扩张层和旋转框定位的群猪目标检测算法(Dual dilated layer and rotary box location network, DR-Net)。采集3个猪场的群猪图像,利用数据增强保留9 600幅图像制作数据集;基于膨胀卷积搭建提取图像全局信息的双扩张层,借鉴Res2Net模块改进CSP层融合多尺度特征,猪只目标以旋转框定位并采用五参数表示法在模型训练中利用Gaussian Wasserstein distance计算旋转框的回归损失。试验结果表明,DR-Net对猪只目标识别的精确率、召回率、平均精确率、MAE、RMSE分别为98.57%、97.27%、96.94%、0.21、0.54,其检测效果优于YOLO v5,提高了遮挡与粘连场景下的识别精度和计数精度。利用可视化特征图分析算法在遮挡和粘连场景下能够利用猪只头颈部、背部或尾部特征准确定位目标。该研究有助于智能化猪场建设,可为后续猪只行为识别研究提供参考。  相似文献   

5.
为实现田间环境下对玉米苗和杂草的高精度实时检测,本文提出一种融合带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration, MSRCR)增强算法的改进YOLOv4-tiny模型。首先,针对田间环境的图像特点采用MSRCR算法进行图像特征增强预处理,提高图像的对比度和细节质量;然后使用Mosaic在线数据增强方式,丰富目标检测背景,提高训练效率和小目标的检测精度;最后对YOLOv4-tiny模型使用K-means++聚类算法进行先验框聚类分析和通道剪枝处理。改进和简化后的模型总参数量降低了45.3%,模型占用内存减少了45.8%,平均精度均值(Mean average precision, mAP)提高了2.5个百分点,在Jetson Nano嵌入式平台上平均检测帧耗时减少了22.4%。本文提出的Prune-YOLOv4-tiny模型与Faster RCNN、YOLOv3-tiny、YOLOv4 3种常用的目标检测模型进行比较,结果表明:Prune-YOLOv4-tiny的mAP为96.6%,分别比Faster RCNN和YOLOv3...  相似文献   

6.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

7.
针对目前蛋鸡啄羽异常行为(包括啄和被啄)识别精度比较低的问题,提出了一种基于改进YOLO v6-tiny模型进行啄羽异常行为识别的方法。该方法通过在YOLO v6-tiny模型中引入DenseBlock结构并融入CSP结构的SPP模块(SPPCSPC)的方式,增强了YOLO v6-tiny模型的特征提取能力,扩大了模型的感受野,提升了模型的检测精度。在识别出啄羽异常行为的基础上,对如何基于异常行为发生次数,进行蛋鸡个体分类进行了研究。提出了基于YOLO v6-tiny模型进行蛋鸡个体识别,并将啄羽异常行为识别结果输入个体识别网络,进行蛋鸡个体分类的方法。同时,本文还分别对2种不同的养殖密度、一天当中3个不同的时间段,异常行为发生次数的变化规律进行了分析。实验结果表明,优化后的模型对啄和被啄异常行为的识别平均精度(AP)分别为92.86%和92.93%,分别比YOLO v6-tiny模型高1.61、1.08个百分点,比Faster R-CNN模型高3.28、4.00个百分点,比YOLO v4-tiny模型高6.15、6.63个百分点,比YOLO v5s模型高2.04、4.27个百分点,比YOLO v7-tiny模型高5.39、3.92个百分点。本文方法可以识别出啄和被啄羽异常行为,为蛋鸡异常行为的智能检测提供了技术支撑。  相似文献   

8.
含杂率是小麦机械化收获重要指标之一,但现阶段我国小麦收获过程含杂率在线检测难以实现。为了实现小麦机械化收获过程含杂率在线检测,本文提出基于结合注意力的改进U-Net模型的小麦机收含杂率在线检测方法。以机收小麦样本图像为基础,采用Labelme手工标注图像,并通过随机旋转、缩放、剪切、水平镜像对图像进行增强,构建基础图像数据集;设计了结合注意力的改进U-Net模型分类识别模型,并在torch 1.2.0深度学习框架下实现模型的离线训练;将最优的离线模型移植到Nvidia jetson tx2开发套件上,设计了基于图像信息的含杂率量化模型,从而实现小麦机械化收获含杂率在线检测。试验结果表明:针对不同模型的训练结果,结合注意力的改进U-Net模型籽粒和杂质分割识别F1值分别为76.64%和85.70%,比标准U-Net高10.33个百分点和2.86个百分点,比DeepLabV3提高10.22个百分点和11.62个百分点,比PSPNet提高18.40个百分点和14.67个百分点,结合注意力的改进U-Net模型对小麦籽粒和杂质的识别效果最好;在台架试验和田间试验中,装置在线检测含杂率均值分别为1...  相似文献   

9.
曾俊  陈仁凡  邹腾跃 《南方农机》2023,(24):24-27+41
【目的】解决自然环境下不同成熟度桃子快速准确检测的问题,课题组提出一种基于改进YOLOv5s的目标检测算法YOLO-Faster。【方法】使用YOLOv5s网络模型作为基础网络,将主干特征提取网络替换为FasterNet,使模型轻量化,并在主干和颈部之间增加串联的CBAM卷积注意力模块和常规卷积块,增强对图像重要特征的捕捉与表达,同时引入SIoU损失函数缓解预测框与真实框之间方向的不匹配。【结果】改进后模型的m AP为88.6%,与YOLOv5s相比提升1个百分点,模型权重缩减39.4%,浮点运算量降低44.3%,在GPU、CPU上的单张图像平均检测时间分别减少12.6%和24%。此外,本研究将训练好的模型部署到嵌入式设备Jetson Nano上,模型在Jetson Nano上的检测时间比YOLOv5s减少30.4%。【结论】改进后的轻量级模型能够快速准确地检测自然环境下不同成熟度的桃子,可以为桃子采摘机器人的视觉识别系统提供技术支持。  相似文献   

10.
针对猪只人工计数方法消耗时间和劳动力,育肥猪较为活跃且喜好聚集,图像中存在大量的高密度区域,导致猪只之间互相粘连、遮挡等问题,基于SOLO v2实例分割算法,提出了一种自然养殖场景下融合多尺度特征金字塔与二代可变形卷积的高密度群养猪计数模型。通过优化模型结构来减少计算资源的消耗与占用。将科大讯飞给出的猪只计数的公开数据集划分为猪只分割数据集和猪只盘点测试集,利用猪只分割数据集获得较好的分割模型,然后在猪只盘点测试集中测试盘点准确率,实现猪群分割和猪只计数。实验结果表明,本文提出的高密度猪只计数模型的分割准确率达到96.7%,且模型内存占用量为256 MB,为改进前的2/3,实现了遮挡、粘连和重叠情况下的猪只个体高准确率分割。在含有500幅猪只图像计数测试集中,模型计算猪只数量误差为0时的图像数量为207幅,较改进前提高26%。模型计算猪只数量误差小于2头猪的图像数量占测试图像总数量的97.2%。模型计算猪只数量误差大于3头猪的图像数量占总体图像数量比例仅为1%。最后,对比基于YOLO v5的群养猪计数方法,本文模型具有更优的分割效果和计数准确率,验证了本文方法对群养猪只计数的有效性。因...  相似文献   

11.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

12.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

13.
无人机避障不及时造成的人员伤亡及财产损失是阻碍无人机发展应用的重要原因之一,实时性好、准确率高的避障系统可降低无人机的运行风险。提出基于目标检测的智能避障系统,以one stage与two stage目标检测方法相结合的方式改进目标检测模型YOLOv3。其中,障碍物检测分三部分完成:基于darknet-53进行三个不同尺度的特征提取、RPN根据ground truth筛选感兴趣区域和yolo层多尺度特征融合预测障碍物的位置和分类。然后,在该文数据集的基础上将训练好的障碍物检测模型进行测试,测试结果表明:改进模型的障碍物检测速率为25帧/s,mAP为95.52%,与现有的目标检测模对比结果表明:本研究改进的目标检测智能避障算法,比Faster R-CNN的mAP提高17.2%,检测速率加快14个FPS;并在保证实时性的同时,mAP比YOLO2提高23.3%,比YOLOv3提高6.25%。最后,将目标检测模型应用于无人机避障系统中提出实现方案,进一步为无人机安全运行提供新的方法。  相似文献   

14.
破损鸡蛋导致的漏液会污染自动化生产线和完好鸡蛋,不仅影响生产效率,还会干扰裂纹鸡蛋的检测.为实现破损鸡蛋快速、准确、低成本的识别,本文利用机器视觉技术,并结合深度学习网络深层次特征提取、高精度检测分类的特性,提出一种基于YOLOv4网络的破损鸡蛋检测方法.构建破损鸡蛋图像数据集,搭建YOLOv4深度学习网络,训练含有破...  相似文献   

15.
针对果园目标检测时相机抖动以及物体相对运动导致检测图像模糊的问题,本文提出一种将DeblurGAN-v2去模糊网络和YOLOv5s目标检测网络相融合的D2-YOLO一阶段去模糊识别深度网络,用于检测识别果园模糊场景图像中的障碍物。为了减少融合网络的参数量并提升检测速度,首先将YOLOv5s骨干网络中的标准卷积替换成深度可分离卷积,并且在输出预测端使用CIoU_Loss进行边界框回归预测。融合网络使用改进的CSPDarknet作为骨干网络进行特征提取,将模糊图像恢复原始自然信息后,结合多尺度特征进行模型预测。为了验证本文方法的有效性,选取果园中7种常见的障碍物作为目标检测对象,在Pytorch深度学习框架上进行模型训练和测试。试验结果表明,本文提出的D2-YOLO去模糊识别网络准确率和召回率分别为91.33%和89.12%,与分步式DeblurGAN-v2+YOLOv5s相比提升1.36、2.7个百分点,与YOLOv5s相比分别提升9.54、9.99个百分点,能够满足果园机器人障碍物去模糊识别的准确性和实时性要求。  相似文献   

16.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

17.
毛桃等果实的准确检测是实现机械化、智能化农艺管理的必要前提。然而,由于光照不均和严重遮挡,在果园中实现毛桃,尤其是套袋毛桃的检测一直面临着挑战。本研究基于改进YOLOv5s和多模态视觉数据提出了面向机械化采摘的毛桃多分类准确检测。具体地,构建了一个多类标签的裸桃和套袋毛桃的RGB-D数据集,包括4127组由消费级RGB-D相机获取的像素对齐的彩色、深度和红外图像。随后,通过引入方向感知和位置敏感的注意力机制,提出了改进的轻量级YOLOv5s(小深度)模型,该模型可以沿一个空间方向捕捉长距离依赖,并沿另一个空间方向保留准确的位置信息,提高毛桃检测精度。同时,通过将卷积操作分解为深度方向的卷积与宽度、高度方向的卷积,使用深度可分离卷积在保持模型检测准确性的同时减少模型的计算量、训练和推理时间。实验结果表明,使用多模态视觉数据的改进YOLOv5s模型在复杂光照和严重遮挡环境下,对裸桃和套袋毛桃的平均精度(Mean Average Precision,mAP)分别为98.6%和88.9%,比仅使用RGB图像提高了5.3%和16.5%,比YOLOv5s提高了2.8%和6.2%。在套袋毛桃检测方面,改进YOLOv5s的mAP比YOLOX-Nano、PP-YOLO-Tiny和EfficientDet-D0分别提升了16.3%、8.1%和4.5%。此外,多模态图像、改进YOLOv5s对提升自然果园中的裸桃和套袋毛桃的准确检测均有贡献,所提出的改进YOLOv5s模型在检测公开数据集中的富士苹果和猕猴桃时,也获得了优于传统方法的结果,验证了所提出的模型具有良好的泛化能力。最后,在主流移动式硬件平台上,改进后的YOLOv5s模型使用五通道多模态图像时检测速度可达每秒19幅,能够实现毛桃的实时检测。上述结果证明了改进的YOLOv5s网络和含多类标签的多模态视觉数据在实现果实自动采摘系统视觉智能方面的应用潜力。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号