首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 242 毫秒
1.
基于改进Faster R-CNN识别深度视频图像哺乳母猪姿态   总被引:13,自引:11,他引:2  
猪舍场景下,昼夜交替光线变化、热灯光照影响,及仔猪与母猪的粘连等因素,给全天候哺乳母猪姿态自动识别带来很大困难。该文以深度视频图像为数据源,提出基于改进Faster R-CNN的哺乳母猪姿态识别算法。将残差结构引入ZF网络,设计ZF-D2R网络,以提高识别精度并保持实时性;将Center Loss监督信号引入Faster R-CNN训练中,以增强类内特征的内聚性,提升识别精度。对28栏猪的视频图像抽取站立、坐立、俯卧、腹卧和侧卧5类姿态共计7 541张图像作为训练集,另取5类姿态的5 000张图像作为测试集。该文提出的改进模型在测试集上对哺乳母猪的站立、坐立、俯卧、腹卧和侧卧5类姿态的识别平均准确率分别达到96.73%、94.62%、86.28%、89.57%和99.04%,5类姿态的平均准确率均值达到93.25%。在识别精度上,比ZF网络和层数更深的VGG16网络的平均准确率均值分别提高了3.86和1.24个百分点。识别速度为0.058 s/帧,比VGG16网络速度提高了0.034 s。该文方法在提高识别精度的同时保证了实时性,可为全天候母猪行为识别提供技术参考。  相似文献   

2.
群养猪侵略性行为的深度学习识别方法   总被引:9,自引:8,他引:1  
为了解决因传统机器视觉和图像处理方法的局限性以及复杂的猪体姿态和猪舍环境导致对群养猪侵略性行为识别的有效性、准确率较低的问题,该文基于深度学习的方法,提出使用3DCONV的群养猪侵略性行为识别算法-3DConvNet。分3个批次采集18头9.6 kg左右的大白仔猪视频图像,选用第一批次中包含28 d内各个时段的撕咬、撞击、追逐、踩踏4大类,咬耳、咬尾、咬身、头撞头、头撞身、追逐以及踩踏7小类侵略性行为以及吃食、饮水、休息等非侵略性行为共计740段(27114帧)视频作为训练集和验证集,训练集和验证集比例为3:1。结果表明,3DConvNet网络模型在训练集上的识别准确度达96.78%,在验证集上识别准确度达95.70%。该文算法模型对于不同训练集批次的猪只以及不良照明条件下依然能准确识别侵略性行为,算法模型泛化性能良好。与C3D模型进行对比,该文提出的网络模型准确率高出43.47个百分点,单帧图像处理时间为0.50 s,可满足实时检测的要求。研究结果可为猪场养殖环境中针对猪只侵略性行为检测提供参考。  相似文献   

3.
动物的姿态和行为与其自身的健康状况有着密切联系,检测动物骨骼关键点是进行动物姿态识别、异常行为分析的前提。针对现有的关键点检测方法对动物骨骼的识别准确率低、鲁棒性差等问题,该研究提出了一种引入Transformer编码器的动物骨骼关键点检测模型。首先,在HRNet网络的特征提取层中引入改进的Transformer编码器,用于捕捉关键点之间的空间约束关系,在小规模的羊数据集上有较优的检测性能。其次,引入多尺度信息融合模块,提高模型在不同维度特征上的学习能力,让模型可以适用于更多的实际场景。为了验证模型的有效性和泛化性,该研究采集并标注了羊的骨骼关键点数据集,并加入东北虎数据集ATRW共同作为训练集。试验结果表明,在羊和东北虎关键点数据集上,该模型分别取得77.1%和89.7%的准确率,均优于对比模型且计算量更小,单张图像检测时间为14 ms,满足实时检测的需求。使用牛、马等数据集进行跨域测试均能较好地检测出骨骼关键点,并分析了Transformer编码器的可解释性。该研究可为精确检测动物骨骼关键点提供一种有效的技术支持。  相似文献   

4.
融合2D-3D卷积特征识别哺乳母猪姿态转换   总被引:2,自引:2,他引:0  
母猪姿态转换影响仔猪存活率,且动作幅度与持续时间存在差异,准确识别难度大。该研究提出一种融合2D-3D卷积特征的卷积网络(2D+3D-CNet,2D+3D Convolutional Network)识别深度图像母猪姿态转换。以视频段为输入,引入注意力机制SE模块和3D空洞卷积,以提升3D卷积网络姿态转换的时空特征提取能力,用2D卷积提取母猪的空间特征;经特征融合后,动作识别分支输出母猪转换概率,姿态分类分支输出4类姿态概率,结合这两个输出结果识别8类姿态转换,减少了人工标注数据集的工作量;最后设计动作分数,优化母猪姿态转换的时间定位。在测试集上,2D+3D-CNet姿态转换识别精度为97.95%、召回率为91.67%、测试速度为14.39帧/s,精度、召回率和时间定位精度均高于YOWO、FRCNN-HMM和MOC-D方法。该研究结果实现了母猪姿态转换高精度识别。  相似文献   

5.
群养猪行为是评估猪群对环境适应性的重要指标。猪场环境中,猪只行为识别易受不同光线和猪只粘连等因素影响,为提高群养猪只行为识别精度与效率,该研究提出一种基于改进帧间差分-深度学习的群养猪只饮食、躺卧、站立和打斗等典型行为识别方法。该研究以18只50~115日龄长白猪为研究对象,采集视频帧1 117张,经图像增强共得到4 468张图像作为数据集。首先,选取Faster R-CNN、SSD、Retinanet、Detection Transformer和YOLOv5五种典型深度学习模型进行姿态检测研究,通过对比分析,确定了最优姿态检测模型;然后,对传统帧间差分法进行了改进,改进后帧间差分法能有效提取猪只完整的活动像素特征,使检测结果接近实际运动猪只目标;最后,引入打斗活动比例(Proportion of Fighting Activities, PFA)和打斗行为比例(Proportion of Fighting Behavior, PFB)2个指标优化猪只打斗行为识别模型,并对模型进行评价,确定最优行为模型。经测试,YOLOv5对群养猪只典型姿态检测平均精度均值达93.80%,模型大小为14.40 MB,检测速度为32.00帧/s,检测速度满足姿态实时检测需求,与Faster R-CNN、SSD、Retinanet和Detection Transformer模型相比,YOLOv5平均精度均值分别提高了1.10、3.23、4.15和21.20个百分点,模型大小分别减小了87.31%、85.09%、90.15%和97.10%。同时,当两个优化指标PFA和PFB分别设置为10%和40%时,猪只典型行为识别结果最佳,识别准确率均值为94.45%。结果表明,该方法具有准确率高、模型小和识别速度快等优点。该研究为群养猪只典型行为精准高效识别提供方法参考。  相似文献   

6.
基于改进Tiny-YOLO模型的群养生猪脸部姿态检测   总被引:8,自引:6,他引:2  
生猪脸部包含丰富的生物特征信息,对其脸部姿态的检测可为生猪的个体识别和行为分析提供依据,而在生猪群养场景下,猪舍光照、猪只黏连等复杂因素给生猪脸部姿态检测带来极大挑战。该文以真实养殖场景下的群养生猪为研究对象,以视频帧数据为数据源,提出一种基于注意力机制与Tiny-YOLO相结合的检测模型DAT-YOLO。该模型将通道注意力和空间注意力信息引入特征提取过程中,高阶特征引导低阶特征进行通道注意力信息获取,低阶特征反向指引高阶特征进行空间注意力筛选,可在不显著增加参数量的前提下提升模型特征提取能力、提高检测精度。对5栏日龄20~105d的群养生猪共35头的视频抽取504张图片,共计3712个脸部框,并标注水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态,构建训练集,另取420张图片共计2 106个脸部框作为测试集。试验表明,DAT-YOLO模型在测试集上对群养生猪的水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态预测的AP值分别达到85.54%、79.30%、89.61%、76.12%、79.37%和84.35%,其6类总体m AP值比Tiny-YOLO模型、仅引入通道注意力的CAT-YOLO模型以及仅引入空间注意力的SAT-YOLO模型分别提高8.39%、4.66%和2.95%。为进一步验证注意力在其余模型上的迁移性能,在同等试验条件下,以YOLOV3为基础模型分别引入两类注意力信息构建相应注意力子模型,试验表明,基于Tiny-YOLO的子模型与加入相同模块的YOLOV3子模型相比,总体m AP指标提升0.46%~1.92%。Tiny-YOLO和YOLOV3系列模型在加入注意力信息后检测性能均有不同幅度提升,表明注意力机制有利于精确、有效地对群养生猪不同类别脸部姿态进行检测,可为后续生猪个体识别和行为分析提供参考。  相似文献   

7.
基于连续语音识别技术的猪连续咳嗽声识别   总被引:5,自引:2,他引:3  
针对现有基于孤立词识别技术的猪咳嗽声识别存在识别声音种类有限,无法反映实际患病猪连续咳嗽的问题,该文提出了基于双向长短时记忆网络-连接时序分类模型(birectional long short-termmemory-connectionist temporal classification,BLSTM-CTC)构建猪声音声学模型,进行猪场环境猪连续咳嗽声识别的方法,以此进行猪早期呼吸道疾病的预警和判断。研究了体质量为75 kg左右长白猪单个咳嗽声样本的持续时间长度和能量大小的时域特征,构建了声音样本持续时间在0.24~0.74 s和能量大于40.15 V~2·s的阈值范围。在此阈值范围内,利用单参数双门限端点检测算法对基于多窗谱的心理声学语音增强算法处理后的30 h猪场声音进行检测,得到222段试验语料。将猪场环境下的声音分为猪咳嗽声和非猪咳嗽声,并以此作为声学模型建模单元,进行语料的标注。提取26维梅尔频率倒谱系数(Mel frequency cepstral coefficients,MFCC)作为试验语段特征参数。通过BLSTM网络学习猪连续声音的变化规律,并利用CTC实现了端到端的猪连续声音识别系统。5折交叉验证试验平均猪咳嗽声识别率达到92.40%,误识别率为3.55%,总识别率达到93.77%。同时,以数据集外1 h语料进行了算法应用测试,得到猪咳嗽声识别率为94.23%,误识别率为9.09%,总识别率为93.24%。表明基于连续语音识别技术的BLSTM-CTC猪咳嗽声识别模型是稳定可靠的。该研究可为生猪健康养殖过程中猪连续咳嗽声的识别和疾病判断提参考。  相似文献   

8.
基于移位窗口Transformer网络的玉米田间场景下杂草识别   总被引:2,自引:2,他引:0  
针对实际复杂田间场景中作物与杂草识别准确性与实时性差,易受交叠遮挡影响,像素级数据标注难以大量获取等问题,该研究提出基于移位窗口Transformer网络(Shifted Window Transformer,Swin Transformer)的高效识别方法,在实现作物语义分割的基础上快速分割杂草。首先建立玉米语义分割模型,引入Swin Transformer主干并采用统一感知解析网络作为其高效语义分割框架;改进Swin Transformer主干调整网络参数,生成4种改进模型,通过精度与速度的综合对比分析确定最佳模型结构;基于玉米形态分割,建立改进的图像形态学处理组合算法,实时识别并分割全部杂草区域。测试结果表明,该研究4种改进模型中,Swin-Tiny-UN达到最佳精度-速度平衡,平均交并比为94.83%、平均像素准确率为97.18%,推理速度为18.94帧/s。对于模拟实际应用的视频数据,平均正确检测率为95.04%,平均每帧检测时间为5.51′10-2 s。该方法有效实现了玉米与杂草的实时准确识别与精细分割,可为智能除草装备的研发提供理论参考。  相似文献   

9.
基于改进YOLOv3-LITE轻量级神经网络的柑橘识别方法   总被引:16,自引:13,他引:3  
柑橘识别是实现柑橘园果实自动采摘、果树精细化管理以及实现果园产量预测的关键技术环节。为实现自然环境下柑橘果实的快速精准识别,该文提出一种基于改进YOLOv3-LITE轻量级神经网络的柑橘识别方法。在采摘机器人领域,果实识别回归框的准确率直接决定了机器手的采摘成功率,该方法通过引入GIo U边框回归损失函数来提高果实识别回归框准确率;为便于迁移到移动终端,提出一种YOLOv3-LITE轻量级网络模型,使用MobileNet-v2作为模型的骨干网络;使用混合训练与迁移学习结合的预训练方式来提高模型的泛化能力。通过与Faster-RCNN以及SSD模型对比在不同遮挡程度的测试样本下模型的识别效果,用F1值与AP值评估各模型的差异,试验结果表明:该文提出的模型识别效果提升显著,对于果实轻度遮挡的数据集,该文提出的柑橘识别模型的F1值和AP值分别为95.27%和92.75%,Average IoU为88.65%;在全部测试集上,F1值和AP值分别为93.69%和91.13%,AverageIoU为87.32%,在GPU上对柑橘目标检测速度可达246帧/s,对单张416×416的图片推断速度为16.9 ms,在CPU上检测速度可达22帧/s,推断速度为80.9 ms,模型占用内存为28 MB。因此,该文提出的柑橘识别方法具有模型占用内存低、识别准确率高及识别速度快等优点,可为柑橘采摘机器人以及柑橘产业产量预测提出新的解决方案,为柑橘产业智能化提供新的思路。  相似文献   

10.
基于姿态与时序特征的猪只行为识别方法   总被引:3,自引:1,他引:2       下载免费PDF全文
生猪行为监测是生猪养殖管理过程中的一个重要环节。该研究提出了基于姿态与时序特征的猪只行为识别方法。首先采集和标注猪栏内猪只图像,分别构建了猪只目标检测数据集、猪只关键点数据集和猪只行为识别数据集;利用构建的数据集,分别训练了基于YOLOv5s的猪只检测模型、基于轻量化OpenPose算法的猪只姿态估计模型和基于ST-GCN算法的猪只行为识别模型,并搭建了猪只行为识别系统。经测试,文中训练的YOLOv5s猪只检测模型mAP(mean Average Precision)最高达到0.995,姿态估计模型平均精度和平均召回率达到93%以上,基于ST-GCN的猪只行为识别模型的平均准确率为86.67%。文中构建的猪只行为识别系统中基于LibTorch推理猪只检测模型和猪只姿态估计模型的单帧推理耗时分别约为14和65 ms,单只猪行为识别推理耗时约为8 ms,每提取200帧连续姿态进行一次行为识别推理,平均17 s更新一次行为识别结果。证明提出的基于姿态与时序特征的猪只行为识别方法具有一定可行性,为群养猪场景下的猪只行为识别提供了思路。  相似文献   

11.
融合动态机制的改进型Faster R-CNN识别田间棉花顶芽   总被引:4,自引:4,他引:0  
针对田间密植环境棉花精准打顶时,棉花顶芽因其小体积特性所带来识别困难问题,该研究提出一种改进型更快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)目标检测算法实现大田环境棉花顶芽识别。以Faster R-CNN为基础框架,使用 RegNetX-6.4GF作为主干网络,以提高图像特征获取性能。将特征金字塔网络(Feature Pyramid Network,FPN)和导向锚框定位(Guided Anchoring,GA)机制相融合,实现锚框(Anchor)动态自适应生成。通过融合动态区域卷积神经网络(Dynamic Region Convolutional Neural Networks,Dynamic R-CNN)方法,实现训练阶段检测模型自适应候选区域(Proposal)分布的动态变化,以提高算法训练效果。最后在目标候选区域(Region of Interest,ROI)中引入目标候选区域提取器(Generic ROI Extractor,GROIE)提高图像特征融合能力。采集自然环境7种不同棉花材料总计4 819张图片,建立微软常见物体图像识别库2017(Microsoft Common Objects in Context 2017,MS COCO 2017)格式的棉花顶芽图片数据集进行试验。结果表明,该研究提出的方法平均准确率均值(Mean Average Precision,MAP)为98.1%,模型的处理速度(Frames Per Second,FPS)为10.3帧/s。其MAP在交并比(Intersection Over Union,IOU)为0.5时较Faster R-CNN、RetinaNet、Cascade R-CNN和RepPoints网络分别提高7.3%、78.9%、10.1%和8.3%。该研究算法在田间对于棉花顶芽识别具有较高的鲁棒性和精确度,为棉花精准打顶作业奠定基础。  相似文献   

12.
基于改进Cascade Mask R-CNN与协同注意力机制的群猪姿态识别   总被引:2,自引:2,他引:0  
王鲁  刘晴  曹月  郝霞 《农业工程学报》2023,39(4):144-153
猪体姿态识别有助于实现猪只健康状况预警、预防猪病爆发,是当前研究热点。针对复杂场景下群猪容易相互遮挡、粘连,姿态识别困难的问题,该研究提出一种实例分割与协同注意力机制相结合的两阶段群猪姿态识别方法。首先,以Cascade Mask R-CNN作为基准网络,结合HrNetV2和FPN模块构建猪体检测与分割模型,解决猪体相互遮挡、粘连等问题,实现复杂环境下群猪图像的高精度检测与分割;在上述提取单只猪基础上,构建了基于协同注意力机制(coordinate attention,CA)的轻量级猪体姿态识别模型(CA-MobileNetV3),实现猪体姿态的精准快速识别。最后,在自标注数据集上的试验结果表明,在猪体分割与检测环节,该研究所提模型与MaskR-CNN、MSR-CNN模型相比,在AP0.50、AP0.75、AP0.50:0.95和AP0.5:0.95-large指标上最多提升了1.3、1.5、6.9和8.8个百分点,表现出最优的分割与检测性能。而在猪体姿态识别环节,所提CA-MobileNetV3模...  相似文献   

13.
基于融合坐标信息的改进YOLO V4模型识别奶牛面部   总被引:3,自引:2,他引:1  
为实现奶牛个体的准确识别,基于YOLO V4目标检测网络,提出了一种融合坐标信息的奶牛面部识别模型。首先,采集71头奶牛面部图像数据集,并通过数据增强扩充提高模型的泛化性能。其次,在YOLO V4网络的特征提取层和检测头部分分别引入坐标注意力机制和包含坐标通道的坐标卷积模块,以增强模型对目标位置的敏感性,提高识别精度。试验结果表明,改进的YOLO V4模型能够有效提取奶牛个体面部特征,平均精度均值(mAP)为93.68%,平均帧率为18帧/s,虽然检测速度低于无锚框的CenterNet,但mAP提高了10.92%;与Faster R-CNN和SSD模型相比,在检测速度提高的同时,精度分别提高了1.51%和16.32%;与原始YOLO V4相比,mAP提高0.89%,同时检测速度基本不变。该研究为奶牛精准养殖中的牛脸图像识别提供了一种有效的技术支持。  相似文献   

14.
基于隐马尔科夫模型的深度视频哺乳母猪高危动作识别   总被引:5,自引:4,他引:1  
哺乳母猪的高危动作和仔猪存活率有密切关系,能直接体现其母性行为能力,而这些高危动作又与其姿态转换的频率、持续时间等密切相关。针对猪舍环境下,环境光线变化、母猪与仔猪黏连、猪体形变等给哺乳母猪姿态转换识别带来的困难。该文以梅花母猪为研究对象,以Kinect2.0采集的深度视频图像为数据源,提出基于Faster R-CNN和隐马尔科夫模型的哺乳母猪姿态转换识别算法,通过FasterR-CNN产生候选区域,并采用维特比算法构建定位管道;利用Otsu分割和形态学处理提取疑似转换片段中母猪躯干部、尾部和身体上下两侧的高度序列,由隐马尔科夫模型识别姿态转换。结果表明,对姿态转换片段识别的精度为93.67%、召回率为87.84%。研究结果可为全天候母猪行为自动识别提供技术参考。  相似文献   

15.
改进Faster R-CNN的群养猪只圈内位置识别与应用   总被引:4,自引:3,他引:1  
群养圈栏内猪只的位置分布是反映其健康福利的重要指标。为解决传统人工观察方式存在的人力耗费大、观察时间长和主观性强等问题,实现群养猪只圈内位置的高效准确获取,该研究以三原色(Red Green Blue,RGB)图像为数据源,提出了改进的快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)的群养猪只圈内位置识别算法,将时间序列引入候选框区域算法,设计Faster R-CNN和轻量化CNN网络的混合体,将残差网络(Residual Network,ResNet)作为特征提取卷积层,引入PNPoly算法判断猪只在圈内的所处区域。对育成和育肥2个饲养阶段的3个猪圈进行24 h连续98 d的视频录像,从中随机提取图像25 000张作为训练集、验证集和测试集,经测试该算法识别准确率可达96.7%,识别速度为每帧0.064 s。通过该算法获得了不同猪圈和日龄的猪群位置分布热力图、分布比例和昼夜节律,猪圈饲养面积的增加可使猪群在实体地面的分布比例显著提高(P<0.05)。该方法可为猪只群体行为实时监测提供技术参考。  相似文献   

16.
基于YOLO_X和迁移学习的无人机影像玉米雄穗检测   总被引:1,自引:1,他引:0  
玉米雄穗表型信息的获取对研究玉米长势及产量起着非常重要的作用,为实现复杂田间环境玉米雄穗的精确识别和计数,该研究使用无人机采集试验田的玉米雄穗影像,基于Faster R-CNN、SSD、YOLO_X目标检测模型,使用迁移学习方法实现玉米雄穗的高精度识别,并分析了模型对不同品种和不同种植密度的玉米雄穗检测效果。试验结果表明,基于迁移学习的Faster R-CNN、SSD、YOLO_X的目标检测效果相比于未使用迁移学习的模型有明显提升,其中,迁移学习后YOLO_X的识别精确度为97.16%,平均精度为93.6%,准确度为99.84%,对数平均误检率为0.22,识别效果最好;不同玉米品种对模型的适应性有所差异,其中郑单958对模型适应性最好,Faster R-CNN、SSD、YOLO_X的决定系数R2分别为0.9474、0.9636、0.9712;不同种植密度下玉米雄穗的检测效果有所差异,在29 985,44 978,67 466,89 955株/hm2种植密度下,模型对郑单958检测的平均绝对误差分别为0.19、0.31、0.37、0.75,随着种植密度的增加,检测误差逐渐变大。本研究为农田玉米雄穗高精度识别提供了一种新方法,对玉米表型性状高通量调查具有一定的应用价值。  相似文献   

17.
随着海参养殖业快速发展,利用水下机器人代替人工作业的海参智能捕捞已成为发展趋势。浅海环境复杂,海参体色与环境区分性差、海参呈现半遮蔽状态等原因,导致目标识别准确率低下。此外由于景深运动,远端海参作为小目标常常未被识别成功。为解决上述问题,该研究提出一种基于改进SSD网络的海参目标检测算法。首先通过RFB(Receptive Field Block)模块扩大浅层特征感受野,利用膨胀卷积对特征图进行下采样,增加海参细节、位置等信息,并结合注意力机制,对不同深度特征进行强化,将计算得出的权重与原特征信息相乘以此获得特征图,使结果包含最具代表性的特征,也抑制无关特征。最后实现特征图融合,进一步提升水下海参的识别精度。以实际拍摄的视频进行测试验证,在网络结构层面上,对传统算法进行改进。试验结果表明,基于改进的SSD网络的海参目标检测算法的平均精度均值为95.63%,检测帧速为10.70帧/s,相较于传统的SSD算法,在平均精度均值提高3.85个百分点的同时检测帧速仅减少2.8帧/s。与Faster R-CNN算法和YOLOv4算法进行对比试验,该研究算法在平均精度均值指标上,分别比YOLOv4、Faster R-CNN算法提高4.19个百分点、1.74个百分点。在检测速度方面,该研究算法较YOLOv4、Faster R-CNN算法分别低4.6帧/s、高3.95帧/s,试验结果表明,综合考虑准确率与运行速度,改进后的SSD算法较适合进行海参智能捕捞任务。研究结果为海参智能捕捞提供参考。  相似文献   

18.
基于改进YOLOv4-Tiny的蓝莓成熟度识别方法   总被引:3,自引:2,他引:1  
为实现自然环境下蓝莓果实成熟度的精确快速识别,该研究对YOLOv4-Tiny网络结构进行改进,提出一种含有注意力模块的目标检测网络(I-YOLOv4-Tiny)。该检测网络采用CSPDarknet53-Tiny网络模型作为主干网络,将卷积注意力模块(Convolution Block Attention Module,CBAM)加入到YOLOv4-Tiny网络结构的特征金字塔(Feature Pyramid Network,FPN)中,通过对每个通道的特征进行权重分配来学习不同通道间特征的相关性,加强网络结构深层信息的传递,从而降低复杂背景对目标识别的干扰,且该检测网络的网络层数较少,占用内存低,以此提升蓝莓果实检测的精度与速度。对该研究识别方法进行性能评估与对比试验的结果表明,经过训练的I-YOLOv4-Tiny目标检测网络在验证集下的平均精度达到97.30%,能有效地利用自然环境中的彩色图像识别蓝莓果实并检测果实成熟度。对比YOLOv4-Tiny、YOLOv4、SSD-MobileNet、Faster R-CNN目标检测网络,该研究在遮挡与光照不均等复杂场景中,平均精度能达到96.24%。平均检测时间为5.723 ms,可以同时满足蓝莓果实识别精度与速度的需求。I-YOLOv4-Tiny网络结构占用内存仅为24.20 M,为采摘机器人与早期产量预估提供快速精准的目标识别指导。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号