首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 212 毫秒
1.
【目的】传统的水果检测识别技术具有一定的环境适应缺陷性和主观性,通常是对水果的纹理、颜色、形状等外表特征进行提取和识别,为实现对柑橘果实产量的精准预测,需研究温室环境下对柑橘果实的快速识别及计数。【方法】项目组选取从柑橘种植园中多场景拍摄的5 926张图片作为训练集、738张图片作为验证集、608张图片作为测试集,采用DeepSort算法结合改进YOLOv5算法的方式,通过在主干部分加入SE注意力机制以实现对算法的改进,从而提高对柑橘果实的识别效果;在柑橘果实计数部分,主要采用DeepSort算法给予每个柑橘果实单独的ID编号以实现对柑橘果实的计数。【结果】改进后的YOLOv5算法对柑橘果实的平均识别准确率为93.712%,相比改进前的CenterNet算法、EfficientDet算法、SSD算法、YOLOv4算法、YOLOX算法,平均识别准确率提升了1.354个百分点,并且精确度和召回率也有一定的提升,结合DeepSort算法后对柑橘果实的平均多目标跟踪准确率为88.465%,可较准确地实现对柑橘果实的计数。【结论】DeepSort算法具有提升目标被环境等其他因素遮挡情况下的计数效...  相似文献   

2.
杂草是导致农作物减产不保量的重要因素,针对田间自然环境下杂草识别精度低和识别范围局限的问题,提出一种基于改进Faster R-CNN与迁移学习的农田杂草识别算法。首先,采集多场景下不同时段不同角度的杂草图片,通过旋转、裁剪和调节色彩等方式扩充数据集;然后,在原始Faster R-CNN网络的基础上利用改进的双阈值非极大抑制算法(Non Maximum Suppression,NMS)查找置信度较高的边界框;最后,将AlexNet、GoogleNet、VGG16和ResNet50等作为模型的区域建议网络,并将其最优模型参数迁移至农田杂草识别任务中。通过在多样本数据集和少量物种样本数据集上进行测试验证,试验结果表明,算法可以实现96.58%的精确率、94.82%的召回率和95.06%的F1-score,相比当前主流算法在保持识别精度较高的基础上,具有更广的识别范围。  相似文献   

3.
自然环境下绿色柑橘视觉检测技术研究   总被引:14,自引:0,他引:14  
绿色柑橘具有与背景相似的颜色特征,自然环境下绿色柑橘的视觉检测比较困难。提出基于深度学习技术,利用Faster RCNN方法进行树上绿色柑橘的视觉检测研究。首先配置深度学习的试验环境,同时设计了绿色柑橘图像采集试验,建立了柑橘图像样本集,通过试验对批处理大小、学习速率和动量等超参数进行调优,确定合适的学习速率为0.01、批处理为128、动量系数为0.9,使用确定的超参数对模型进行了训练,最终训练模型在测试集上的平均精度(MAP)为85.49%。通过设计自然环境下不同光照条件、图像中不同尺寸柑橘、不同个数柑橘的Faster RCNN方法与Otsu分割法的柑橘检测对比试验,并定义F值作为对比评价指标,分析2种方法的检测结果,试验结果表明:Faster RCNN方法与Otsu方法在不同光照条件下检测绿色柑橘的F值分别为77.45%和59.53%;不同个数柑橘果实检测结果的F值分别为82.58%和60.34%,不同尺寸柑橘检测结果的F值分别为73.53%和49.44%,表明所提方法对自然环境下绿色柑橘有较好的检测效果,为果园自动化生产和机器人采摘的视觉检测提供了技术支持。  相似文献   

4.
基于改进残差网络的园林害虫图像识别   总被引:6,自引:0,他引:6  
针对北方园林害虫识别问题,提出了一种基于改进残差网络的害虫图像识别方法。首先,采用富边缘检测算法,将中值滤波、Sobel算子和Canny算子相结合,对害虫图像进行边缘检测;然后,改进残差网络中的残差块,通过添加卷积层和增加通道数提取更多的害虫图像特征,并将贝叶斯方法运用于改进后的网络中,优化超参数;最后,将预处理的害虫图像输入神经网络中,利用分块共轭算法优化网络权重。对38种北方园林害虫进行了识别,试验结果表明,在相同数据集下,与3种传统害虫识别方法相比,本文方法的平均识别准确率平均提高9. 6个百分点,加权平均分数分别提高16. 3、10. 8、4. 5个百分点。  相似文献   

5.
为了实现对自然环境下树上柑橘的识别和检测,解决柑橘图像数据采集不便、图像质量差、数量少的问题,为柑橘的机械采摘工作提供一种视觉方案,本文提出了一种联合SAM(Segment Anything Model)与VGG16模型的检测方法。SAM具有良好的泛化能力,在图像分割效果上也达到了柑橘任务的应用要求。图像经过SAM分割后输入到VGG16网络模型中进行分类,而后将分类结果连同位置信息返回到原图上显示出来,实现柑橘目标检测。本文方法旨在进一步解决自然环境下树上柑橘任务需要大量数据集、模型训练时间长、目标分割困难、目标错检等问题。实验结果表明,该方法在模型不经大量训练的情况下能够准确识别在自然环境下的树上柑橘及柑橘小目标,有效节省了数据集制作和模型训练的时间。  相似文献   

6.
小麦白粉病、赤霉病和锈病是危害小麦产量的三大病害。为提高小麦病害图像的识别准确率,构建一种基于Vision Transformer的小麦病害图像识别算法。首先,通过田间拍摄的方式收集包含小麦白粉病、赤霉病和锈病3种病害在内的小麦病害图像,并对原始图像进行预处理,建立小麦病害图像识别数据集;然后,基于改进的Vision Transformer构建小麦病害图像识别算法,分析不同迁移学习方式和数据增强对模型识别效果的影响。试验可知,全参数迁移学习和数据增强能明显提高Vision Transformer模型的收敛速度和识别精度。最后,在相同时间条件下,对比Vision Transformer、AlexNet和VGG16算法在相同数据集上的表现。试验结果表明,Vision Transformer模型对3种小麦病害图像的平均识别准确率为96.81%,相较于AlexNet和VGG16模型识别准确率分别提高6.68%和4.94%。  相似文献   

7.
针对在“一垄双沟”甘蔗丛高秆作物环境下行人目标检测的重要性及难度问题,提出一种改进YOLOV3算法的甘蔗丛中高秆作物遮挡的行人目标检测算法(YOLOV3-my-prune)。为获得更好的行人特征表达,使用Imgaug库对自制的数据集增强,并结合数据集中行人尺寸特点,使用K-means聚类分析方法,为神经网络重新聚类目标锚箱。对YOLOV3网络改进,设计了在网络全连接层中引入空间金字塔池化模块,并增加第四尺度预测特征图,同时增强网络多尺度特征融合能力及小尺度特征提取能力。完成改进的模型基础训练后,采用通道和层剪枝混合剪枝方法轻量化模型,并在数据集上进行多尺度训练并测试,结果表明:此方法 准确率达80.1%,检测速度为30fps,均有所提升。  相似文献   

8.
为实现非接触、高精度个体识别,本文提出了一种基于牛只脸部RGB-D信息融合的个体身份识别方法。以108头28~30月龄荷斯坦奶牛作为研究对象,利用Intel RealSense D455深度相机采集2334幅牛脸彩色/深度图像作为原始数据集。首先,采用冗余图像剔除方法和自适应阈值背景分离算法进行图像预处理,经增强共得到8344幅牛脸图像作为数据集;然后,分别选取Inception ResNet v1、Inception ResNet v2和SqueezeNet共3种特征提取网络进行奶牛脸部特征提取研究,通过对比分析,确定FaceNet模型的最优主干特征提取网络;最后,将提取的牛脸图像特征L2正则化,并映射至同一特征空间,训练分类器实现奶牛个体分类。测试结果表明,采用Inception ResNet v2作为FaceNet模型的主干网络特征提取效果最优,在经过背景分离数据预处理的数据集上测试牛脸识别准确率为98.6%,验证率为81.9%,误识率为0.10%。与Inception ResNet v1、SqueezeNet网络相比,准确率分别提高1、2.9个百分点;与未进行背景分离的数据集相比,准确率提高2.3个百分点。  相似文献   

9.
正确识别西兰花田间位置是实现西兰花自动化采收的基础,西兰花花球颜色与植株的叶片、茎秆相似,仅通过颜色特征无法对西兰花进行识别,本文以成熟期的田间西兰花为研究对象,提出了一种基于纹理特征与颜色特征的西兰花识别算法。首先通过预处理以及Laws滤波对图像进行边界纹理强化,再通过Gabor滤波对图像进行纹理特征向量提取,并对提取后的纹理特征向量进行z-score标准化,随后对标准化后的纹理特征向量进行K-means聚类与开运算,获取花球潜在存在区域。同时对RGB图像进行HSV转换,通过对图像的H分量进行阈值分割达到滤除地面像素的效果。最终对纹理特征识别与颜色特征识别的结果进行融合,实现对田间西兰花的识别。算法通过结合纹理与颜色特征,对田间西兰花进行了识别,解决了西兰花的花球与茎叶等背景颜色相近难以识别的问题。本文共使用792幅图像进行试验,试验结果表明,本方法可以准确地对西兰花田间图像进行识别,其精确率为96.96%,召回率为94.41%,F1值为95.67%。通过对3组不同拍摄环境的数据集进行算法识别,3组数据集的F1值始终保持在94%以上,具有良好的拍摄环境适应性,为农业机器人进行西兰花自...  相似文献   

10.
基于改进YOLO v3网络的夜间环境柑橘识别方法   总被引:9,自引:0,他引:9  
为研究夜间环境下采摘机器人的视觉检测技术,实现采摘机器人的夜间作业,提出了一种多尺度卷积神经网络Des-YOLO v3算法,可实现夜间复杂环境下成熟柑橘的识别与检测。借鉴残差网络和密集连接网络,设计了Des-YOLO v3网络结构,实现了网络多层特征的复用和融合,加强了小目标和重叠遮挡果实识别的鲁棒性,显著提高了果实检测精度。柑橘识别试验结果表明, Des-YOLO v3网络的精确率达97.67%、召回率为97.46%、F1值为0.976,分别比YOLO v3网络高6.26个百分点、6.36个百分点和0.063。同时,经过训练的模型在测试集下的平均精度(mAP)为90.75%、检测速度达53f/s,高于YOLO v3_DarkNet53网络的平均精度88.48%,mAP比YOLO v3_DarkNet53网络提高了2.27个百分点,检测速度比YOLO v3_DarkNet53网络提高了11f/s。研究结果表明,本文提出的Des-YOLO v3网络对野外夜间复杂环境下成熟柑橘的识别具有更强的鲁棒性和更高的检测精度,为柑橘采摘机器人的视觉识别提供了技术支持。  相似文献   

11.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

12.
为实现加工车间刺梨果实的快速识别,提出一种基于改进的RetinaNet刺梨果实图像的识别方法。基于RetinaNet的模型,对RetinaNet框架中Focal loss的bias进行改进,使其能根据不同的情况控制bias的取值,再运用维度聚类算法找出Anchor的较好尺寸并匹配到相对应的特征层,对卷积神经网络结构进行优化。通过改进RetinaNet目标检测算法对7426幅刺梨果实图像进行检测识别,并与原始RetinaNet目标检测算法对比。试验结果表明:改进的RetinaNet网络模型识别方法对6类刺梨果实的识别率分别为99.47%、91.42%、96.92%、90.92%、96.89%和93.53%,平均识别率为94.86%;相对于原始RetinaNet目标检测算法,改进算法的识别准确率提高4.21%,单个刺梨果实检测时间由60.99 ms缩减到57.91 ms,检测时间缩短5.05%。本文改进算法对加工车间刺梨果实的识别具有较高的正确率和实用性。  相似文献   

13.
针对我国油茶果采摘过程中存在的自动化水平落后、采摘效率低、适采周期短的现状,应用于机器人收获技术的机器视觉技术受限于真实场景中复杂背景干扰从而导致识别精度较低的问题。以自然场景下的油茶果为研究对象,提出一种基于Mask-RCNN的自然场景下油茶果目标识别与检测算法,首先获取油茶果图像并建立数据集,利用ResNet卷积神经网络提取油茶果果实图片的特征,获得果实目标分割结果,再采用RPN对所得到的特征图进行操作,并增加全连接层,提取每个样本mask像素面积,并对目标类别进行预测。利用测试集分别测试油茶果的分割网络模型及目标识别算法,结果表明,网络模型的分割准确率为89.85%,油茶果目标识别的平均检测精度为89.42%,召回率为92.86%。本算法能够自动检测油茶果目标,并有效降低不同光照情况下叶片与花苞遮挡、果实重叠、果实色泽等因素干扰,为自然场景中果实自动化采摘提供可靠的视觉支持。  相似文献   

14.
针对在复杂果园背景中难以识别分割单株果树树冠的问题,研究了基于Mask R-CNN 神经网络模型实现单株柑橘树冠识别与分割的方法。通过相机获取柑橘园图像数据,利用Mask R-CNN神经网络实现单株柑橘树冠的识别与分割,根据测试集的预测结果评估模型的性能和可适应性,并分析模型的影响因素。结果表明:参与建模的果园单株树冠识别分割准确率为97%,识别时间为0.26s,基本上可满足果园精准作业过程中的树冠识别要求;未参与建模果园的单株树冠识别分割准确率为89%,说明模型对不同品种、不同环境的果园具有一定的适应性;与SegNet模型相比,本文模型准确率、精确率和召回率均约高5个百分点,说明在非目标树冠较多的复杂果园图像中具有较好的识别分割效果。本研究可为对靶喷药、病虫害防护、长势识别与预估等果园精准作业提供重要依据。  相似文献   

15.
针对油茶果体积小、分布密集、颜色多变等特点,为实现自然复杂场景下油茶果的快速精准定位,并依据果实的疏密分布,确定恰当的自动振荡采收装置夹持位置,利用YOLO v5s卷积神经网络模型,开展了自然环境下油茶果图像检测方法研究,用3 296幅油茶果图像制作PASCAL VOC的数据集,对网络进行了150轮训练,得到的最优权值模型准确率为90.73%,召回率为98.38%,综合评价指标为94.4%,平均检测精度为98.71%,单幅图像检测时间为12.7 ms,模型占内存空间为14.08 MB。与目前主流的一阶检测算法YOLO v4-tiny和RetinaNet相比,其精确率分别提高了1.99个百分点和4.50个百分点,召回率分别提高了9.41个百分点和10.77个百分点,时间分别降低了96.39%和96.25%。同时结果表明,该模型对密集、遮挡、昏暗环境和模糊虚化情况下的果实均能实现高精度识别与定位,具有较强的鲁棒性。研究结果可为自然复杂环境下油茶果机械采收及小目标检测等研究提供借鉴。  相似文献   

16.
针对目前植物解剖表型的测量与分析过程自动化低,难以应对复杂解剖表型的提取和识别的问题,以柑橘主叶脉为研究对象,提出了一种基于掩膜区域卷积神经网络(Mask region convolutional neural network, Mask R-CNN)的主叶脉显微图像实例分割模型,以残差网络ResNet50和特征金字塔(Feature pyramid network, FPN)为主干特征提取网络,在掩膜(Mask)分支上添加一个新的感兴趣区域对齐层(Region of interest Align, RoI-Align),提升Mask分支的分割精度。结果表明,该网络架构能够精准地对柑橘主叶脉横切面中的髓部、木质部、韧皮部和皮层细胞进行识别分割。Mask R-CNN模型对髓部、木质部、韧皮部和皮层细胞的分割平均精确率(交并比(IoU)为0.50)分别为98.9%、89.8%、95.7%和97.2%,对4个组织区域的分割平均精确率均值(IoU为0.50)为95.4%。与未在Mask分支添加RoI-Align的Mask R-CNN相比,精度提升1.6个百分点。研究结果表明,Mask R-CN...  相似文献   

17.
果树测产是果园管理的重要环节之一,为提升苹果果园原位测产的准确性,本研究提出一种包含改进型YOLOv5果实检测算法与产量拟合网络的产量测定方法。利用无人机及树莓派摄像头采集摘袋后不同着色时间的苹果果园原位图像,形成样本数据集;通过更换深度可分离卷积和添加注意力机制模块对YOLOv5算法进行改进,解决网络中存在的特征提取时无注意力偏好问题和参数冗余问题,从而提升检测准确度,降低网络参数带来的计算负担;将图片作为输入得到估测果实数量以及边界框面总积。以上述检测结果作为输入、实际产量作为输出,训练产量拟合网络,得到最终测产模型。测产试验结果表明,改进型YOLOv5果实检测算法可以在提高轻量化程度的同时提升识别准确率,与改进前相比,检测速度最大可提升15.37%,平均mAP最高达到96.79%;在不同数据集下的测试结果表明,光照条件、着色时间以及背景有无白布均对算法准确率有一定影响;产量拟合网络可以较好地预测出果树产量,在训练集和测试集的决定系数R2分别为0.7967和0.7982,均方根误差RMSE分别为1.5317和1.4021 ㎏,不同产量样本的预测精度基本稳定;果树测产模型在背景有白布和无白布的条件下,相对误差范围分别在7%以内和13%以内。本研究提出的基于轻量化改进YOLOv5的果树产量测定方法具有良好的精度和有效性,基本可以满足自然环境下树上苹果的测产要求,为现代果园环境下的智能农业装备提供技术参考。  相似文献   

18.
围绕水产养殖水下目标精准识别的产业发展需求,针对小样本目标识别精度低、模型算法场景适应能力差等问题,提出一种基于改进循环对抗网络(Cycle constraint adversarial network, CycleGAN)样本扩增和注意力增强迁移学习的小样本养殖鱼类识别方法。利用水下采样装备收集实际养殖场景和可控养殖场景大黄鱼图像,并以可控场景图像作为辅助样本集。利用CycleGAN为基础框架实现辅助样本到实际养殖场景图像的迁移,并提出一种基于最大平均差异(Maximum mean discrepancy, MMD)的迁移模型损失函数优化方法。在迁移学习阶段使用ResNet50为基础框架,并引入SK-Net(Selective kernel network)注意力机制优化模型对不同感受野目标的感知能力,提升模型对无约束鱼类目标的识别精度。试验结果表明,本文方法有效提升了小样本鱼类目标的识别能力,鱼类识别召回率达到94.33%,平均精度均值达到96.67%,为鱼类行为跟踪和表型测量提供了有效的技术支撑。  相似文献   

19.
为在无人驾驶农机上实现快速、准确的葡萄园田间障碍目标检测,将EfficientDet-D0、YOLOV4-TINY、YOLOV3-TINY、YOLO-FASTEST四种轻量级目标检测神经网络在自建的葡萄园田间场景数据集进行训练,将训练模型移植到边缘设备NVIDIA JETSON TX2(以下简称TX2)上,对这4种模型的障碍检测精度和在TX2上的适用性进行试验评估。试验结果表明,YOLOV3-TINY、YOLOV4-TINY、EfficientDet-D0、YOLO-FASTEST对葡萄园田间场景障碍检测平均精度mAP分别为0.648、0.601、0.598和0.401。在TX2的实测结果显示,上述网络模型实时视频检测帧率分别为34.24帧、24.75帧、2.34帧和2.97帧。4种目标检测网络中,YOLOV3-TINY在数据集上的检测精度最高、实时检测速度最快,但对硬件资源消耗也相对较高。而在考虑硬件资源消耗时,使用YOLOV4-TINY可以在检测精度、实际运行速度和硬件资源消耗之间维持更好的平衡性,同时可以在运行多任务的情况下取得好的效果。  相似文献   

20.
基于CenterNet的密集场景下多苹果目标快速识别方法   总被引:2,自引:0,他引:2  
为提高苹果采摘机器人的识别效率和环境适应性,使其能在密集场景下对多苹果目标进行快速、精确识别,提出了一种密集场景下多苹果目标的快速识别方法.该方法借鉴"点即是目标"的思路,通过预测苹果的中心点及该苹果的宽、高尺寸,实现苹果目标的快速识别;通过改进CenterNet网络,设计了Tiny Hourglass-24轻量级骨干...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号