首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 782 毫秒
1.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

2.
[目的/意义]培育优质高产的小麦品种是小麦育种的主要目标,而小麦籽粒完整性直接影响小麦育种进程。完整籽粒与破损籽粒的部分特征差异较小,是限制基于深度学习识别破损小麦籽粒精准度的关键因素。[方法]为解决小麦籽粒检测精度低的问题,本研究建立ImCascade R-CNN模型,提出小麦籽粒表形鉴定方法,精准检测小麦籽粒完整性、分割籽粒并获取完整籽粒表形参数。[结果和讨论] ImCascade R-CNN模型检测小麦籽粒完整性的平均精度为90.2%,与Cascade Mask R-CNN、Deeplabv3+模型相比,能更好地识别、定位、分割小麦籽粒,为籽粒表形参数地获取提供基础。该方法测量粒长、粒宽的平均误差率分别为2.15%和3.74%,测量长宽比的标准误差为0.15,与人工测量值具有较高的一致性。[结论]研究结果可快速精准检测籽粒完整性、获取完整籽粒表形数据,加速培育优质高产小麦品种。  相似文献   

3.
为实现自然环境下疏果前期毛桃目标的识别,提出了基于Faster R-CNN的毛桃目标识别方法,设计的网络由ResNet-50特征提取网络、区域生成网络和感兴趣区域子网组成,并以ResNet-50为基础网络,用来提取目标特征。工作时,区域生成网络依据ResNet-50提取的特征生成感兴趣区域,感兴趣区域子网依据目标特征和感兴趣区域进行毛桃的识别与定位;对图像进行扩增后,随机选取1920幅作为训练集、240幅作为验证集。用测试集中的240幅图像对模型进行测试,结果表明:目标识别方法能有效识别出自然环境下的毛桃目标,准确度为92.97%,误识率为7.03%,召回率为84.62%,平均检测速度为0.189s/幅,可实现疏果前期毛桃目标的识别,模型具有较好的鲁棒性和泛化能力。  相似文献   

4.
基于深度学习的群猪图像实例分割方法   总被引:9,自引:0,他引:9  
群养饲喂模式下猪群有聚集在一起的习性,特别是躺卧时,当使用机器视觉跟踪监测猪只时,图像中存在猪体粘连,导致分割困难,成为实现群猪视觉追踪和监测的瓶颈。根据实例分割原理,把猪群中的猪只看作一个实例,在深度卷积神经网络基础上建立Pig Net网络,对群猪图像尤其是对粘连猪体进行实例分割,实现独立猪体的分辨和定位。Pig Net网络采用44层卷积层作为主干网络,经区域候选网络(Region proposal networks,RPN)提取感兴趣区域(ROI),并和主干网络前向传播的特征图共享给感兴趣区域对齐层(Region of interest align,ROIAlign),分支通过双线性插值计算目标空间,三分支并行输出ROI目标的类别、回归框和掩模。Mask分支采用平均二值交叉熵损失函数计算独立猪体的目标掩模损失。连续28 d采集6头9. 6 kg左右大白仔猪图像,抽取前7 d内各不同时段、不同行为模式群养猪图像2 500幅作为训练集和验证集,训练集和验证集的比例为4∶1。结果表明,Pig Net网络模型在训练集上总分割准确率达86. 15%,在验证集上准确率达85. 40%。本文算法对不同形态、粘连严重的群猪图像能够准确分割出独立的猪个体目标。将本文算法与Mask R-CNN模型及其改进模型进行对比,准确率比Mask RCNN模型高11. 40个百分点,单幅图像处理时间为2. 12 s,比Mask R-CNN模型短30 ms。  相似文献   

5.
基于多源图像融合的自然环境下番茄果实识别   总被引:1,自引:0,他引:1  
蔬果采摘机器人面对的自然场景复杂多变,为准确识别和分割目标果实,实现高成功率采收,提出基于多源图像融合的识别方法。首先,针对在不同自然场景下单图像通道信息不充分问题,提出融合RGB图像、深度图像和红外图像的多源信息融合方法,实现了机器人能够适应自然环境中不同光线条件的番茄果实。其次,针对传统机器学习训练样本标注低效问题,提出聚类方法对样本进行辅助快速标注,完成模型训练;最终,建立扩展Mask R-CNN深度学习算法模型,进行采摘机器人在线果实识别。实验结果表明,扩展Mask R-CNN算法模型在测试集中的检测准确率为98.3%、交并比为0.916,可以满足番茄果实识别要求;在不同光线条件下,与Otsu阈值分割算法相比,扩展Mask R-CNN算法模型能够区分粘连果实,分割结果清晰完整,具有更强的抗干扰能力。  相似文献   

6.
针对基础卷积神经网络识别苹果园害虫易受背景干扰及重要特征表达能力不强问题,提出一种基于改进Mask R-CNN的苹果园害虫识别方法。首先,基于Haar特征方法对多点采集得到的苹果园害虫图像进行迭代初分割,提取害虫单体图像样本,并对该样本进行多途径扩增,得到用于深度学习的扩增样本数据集。其次,对Mask R-CNN中的特征提取网络进行优化,采用嵌入注意力机制模块CBAM的ResNeXt网络作为改进模型的Backbone,增加模型对害虫空间及语义信息的提取,有效避免背景对模型性能的影响;同时引入Boundary损失函数,避免害虫掩膜边缘缺失及定位不准确问题。最后,以原始Mask R-CNN模型作为对照模型,平均精度均值作为评价指标进行试验。结果表明,改进Mask R-CNN模型平均精度均值达到96.52%,相比于原始Mask R-CNN模型,提高4.21个百分点,改进Mask R-CNN可精准有效识别苹果园害虫,为苹果园病虫害绿色防控提供技术支持。  相似文献   

7.
针对在复杂果园背景中难以识别分割单株果树树冠的问题,研究了基于Mask R-CNN 神经网络模型实现单株柑橘树冠识别与分割的方法。通过相机获取柑橘园图像数据,利用Mask R-CNN神经网络实现单株柑橘树冠的识别与分割,根据测试集的预测结果评估模型的性能和可适应性,并分析模型的影响因素。结果表明:参与建模的果园单株树冠识别分割准确率为97%,识别时间为0.26s,基本上可满足果园精准作业过程中的树冠识别要求;未参与建模果园的单株树冠识别分割准确率为89%,说明模型对不同品种、不同环境的果园具有一定的适应性;与SegNet模型相比,本文模型准确率、精确率和召回率均约高5个百分点,说明在非目标树冠较多的复杂果园图像中具有较好的识别分割效果。本研究可为对靶喷药、病虫害防护、长势识别与预估等果园精准作业提供重要依据。  相似文献   

8.
基于CNN的小麦籽粒完整性图像检测系统   总被引:3,自引:0,他引:3  
为了快速、准确识别小麦籽粒的完整粒和破损粒,设计了基于卷积神经网络(CNN)的小麦籽粒完整性图像检测系统,并成功应用于实际检测中。采集完整粒和破损粒两类小麦籽粒图像,对图像进行分割、滤波等处理后,建立单粒小麦的图像数据库和形态特征数据库。采用LeNet-5、AlexNet、VGG-16和ResNet-34等4种典型卷积神经网络建立小麦籽粒完整性识别模型,并与SVM和BP神经网络所建模型进行对比。结果表明,SVM和BP神经网络所建模型的验证集识别准确率最高为92. 25%; 4种卷积神经网络模型明显优于两种传统模型,其中,识别性能最佳的AlexNet的测试集识别准确率为98. 02%,识别速率为0. 827 ms/粒。基于AlexNet模型设计了小麦籽粒完整性图像检测系统,检测结果显示,100粒小麦的检测时间为26. 3 s,其中,图像采集过程平均用时21. 2 s,图像处理与识别过程平均用时为5. 1 s,平均识别准确率为96. 67%。  相似文献   

9.
针对传统大豆联合收获机破碎率在线检测方法以人工检测耗时耗力且受人为主观因素影响的问题,提出基于DeepLabV3+网络的机收大豆破碎率在线检测方法。利用大豆图像在线采集装置获取联合收获机实时收获的大豆图像,使用标注软件对图像进行标注,构建数据集。为进一步提高网络训练速度,在DeepLabV3+网络中主干特征提取网络选用轻量级卷积网络MobileNetV2替代网络Xception;在预测部分,采用加黑边裁剪拼接的方式,提高图像分割精度。试验结果表明:基于DeepLabV3+网络模型对测试集大豆样本图像中破碎籽粒识别的综合评价指标F1值为89.49%,完整籽粒识别的综合评价指标F1值为93.93%;建立破碎率量化模型,进行台架试验,采用本文提出大豆破碎率在线检测方法检测结果平均值与人工检测结果平均值相对误差0.36%;为大豆联合收获机作业质量在线检测提供参考。  相似文献   

10.
针对高通量自动化获取的植物表型性状图像的智能检测问题,采用迁移学习和改进掩膜区域卷积神经网络(Mask R-CNN)设计植物表型智能检测分割算法。首先对残差网络进行优化,并利用特征金字塔网络(FPN)对输入图像进行特征提取;然后调整候选区域提取网络(RPN)中锚框的长宽比例和阈值,并在RoIAlign中通过双线性插值法保留了特征图的空间信息;最后改进Mask检测头,并增加特征融合机制以获得高质量的掩膜。在西瓜突变体生长情况的性状表型数据集上进行训练和检测,得到结果表明:改进后的Mask R-CNN表现出更优的检测性能,与传统Mask R-CNN相比,检测精度提高22%,掩膜准确率提高2.7%,检测时间减少42 ms,为提升农业精准化水平和推动智慧农业发展提供了技术支撑。  相似文献   

11.
徐胜勇  李磊  童辉  王成超  别之龙  黄远 《农业机械学报》2023,54(7):204-213,281
传统的人工种苗表型测量方式存在效率低、主观性强、误差大、破坏种苗等问题,提出了一种使用RGB-D相机的黄瓜苗表型无损测量方法。研制了自动化多视角图像采集平台,布署两台Azure Kinect相机同时拍摄俯视和侧视两个视角的彩色、深度、红外和RGB-D对齐图像。使用Mask R-CNN网络分割近红外图像中的叶片和茎秆,再与对齐图进行掩膜,消除了对齐图中的背景噪声与重影并得到叶片和茎秆器官的对齐图像。网络实例分割结果的类别和数量即为子叶和真叶的数量。使用CycleGAN网络处理单个叶片的对齐图,对缺失部分进行修补并转换为3D点云,再对点云进行滤波实现保边去噪,最后对点云进行三角化测量叶面积。在Mask R-CNN分割得到的茎秆对齐图像中,利用茎秆的近似矩形特征,分别计算茎秆的长和宽,再结合深度信息转换为下胚轴长和茎粗。使用YOLO v5s检测对齐图中的黄瓜苗生长点,利用生长点与基质的高度差计算株高。实验结果表明,该系统具有很好的通量和精度,对子叶时期、1叶1心时期和2叶1心时期的黄瓜苗关键表型测量平均绝对误差均不高于8.59%、R2不低于0.83,可以很好地替代人工测...  相似文献   

12.
毛桃等果实的准确检测是实现机械化、智能化农艺管理的必要前提。然而,由于光照不均和严重遮挡,在果园中实现毛桃,尤其是套袋毛桃的检测一直面临着挑战。本研究基于改进YOLOv5s和多模态视觉数据提出了面向机械化采摘的毛桃多分类准确检测。具体地,构建了一个多类标签的裸桃和套袋毛桃的RGB-D数据集,包括4127组由消费级RGB-D相机获取的像素对齐的彩色、深度和红外图像。随后,通过引入方向感知和位置敏感的注意力机制,提出了改进的轻量级YOLOv5s(小深度)模型,该模型可以沿一个空间方向捕捉长距离依赖,并沿另一个空间方向保留准确的位置信息,提高毛桃检测精度。同时,通过将卷积操作分解为深度方向的卷积与宽度、高度方向的卷积,使用深度可分离卷积在保持模型检测准确性的同时减少模型的计算量、训练和推理时间。实验结果表明,使用多模态视觉数据的改进YOLOv5s模型在复杂光照和严重遮挡环境下,对裸桃和套袋毛桃的平均精度(Mean Average Precision,mAP)分别为98.6%和88.9%,比仅使用RGB图像提高了5.3%和16.5%,比YOLOv5s提高了2.8%和6.2%。在套袋毛桃检测方面,改进YOLOv5s的mAP比YOLOX-Nano、PP-YOLO-Tiny和EfficientDet-D0分别提升了16.3%、8.1%和4.5%。此外,多模态图像、改进YOLOv5s对提升自然果园中的裸桃和套袋毛桃的准确检测均有贡献,所提出的改进YOLOv5s模型在检测公开数据集中的富士苹果和猕猴桃时,也获得了优于传统方法的结果,验证了所提出的模型具有良好的泛化能力。最后,在主流移动式硬件平台上,改进后的YOLOv5s模型使用五通道多模态图像时检测速度可达每秒19幅,能够实现毛桃的实时检测。上述结果证明了改进的YOLOv5s网络和含多类标签的多模态视觉数据在实现果实自动采摘系统视觉智能方面的应用潜力。  相似文献   

13.
基于深度学习的大豆生长期叶片缺素症状检测方法   总被引:5,自引:0,他引:5  
为了检测作物叶片缺素,提出了一种基于神经网络的大豆叶片缺素视觉检测方法。在对大豆缺素叶片进行特征分析后,采用深度学习技术,利用Mask R-CNN模型对固定摄像头采集的叶片图像进行分割,以去除背景特征,并利用VGG16模型进行缺素分类。首先通过摄像头采集水培大豆叶片图像,对大豆叶片图像进行人工标记,建立大豆叶片图像分割任务的训练集和测试集,通过预训练确定模型的初始参数,并使用较低的学习率训练Mask RCNN模型,训练后的模型在测试集上对背景遮挡的大豆单叶片和多叶片分割的马修斯相关系数分别达到了0.847和0.788。通过预训练确定模型的初始参数,使用训练全连接层的方法训练VGG16模型,训练的模型在测试集上的分类准确率为89.42%。通过将特征明显的叶片归类为两类缺氮特征和4类缺磷特征,分析讨论了模型的不足之处。本文算法检测一幅100万像素的图像平均运行时间为0.8 s,且对复杂背景下大豆叶片缺素分类有较好的检测效果,可为农业自动化生产中植株缺素情况估计提供技术支持。  相似文献   

14.
针对密集分布的荔枝花遮挡严重导致检测困难,现有研究方法忽略了非极大抑制过程中密集建议框之间的相互作用的问题,为提升检测精度、降低漏检率,提出了一种基于polyphyletic损失函数的检测方法。该方法在损失函数中包含一个聚合损失项,以迫使建议框接近并紧凑定位相应目标,同时增加专门为密集作物场景设计的边界框排斥损失,使预测框远离周围对象,提高密集荔枝花检测鲁棒性。与Faster R-CNN、Focus Loss、AdaptiveNMS和Mask R-CNN进行对比,实验表明,该方法在标准苹果花数据集上识别精度比其他方法高2个百分点,验证了该方法检测的通用性,同时,该方法在自建荔枝花数据集的平均精度均值达到87.94%,F1值为87.07%,缺失率为13.29%,相比Faster R-CNN、Focus Loss、AdaptiveNMS和Mask R-CNN分别提高20.09、14.10、8.35、4.86个百分点,具有较高检测性能。因此,本文提出的方法能够高效地对密集荔枝花进行检测,为复杂场景下的密集作物检测提供参考。  相似文献   

15.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

16.
玉米籽粒构成和精细结构与玉米产量及品质直接相关。本文提出一种基于CT图像的玉米籽粒三维结构自动测量方法,快速提取、统计玉米籽粒成分和结构性状,评估不同玉米品种籽粒间性状差异。首先,利用Micro-CT获取批量玉米籽粒CT图像,通过Watershed算法准确分割出单颗籽粒;进而,设计基于注意力机制RAUNet-3D网络准确提取出籽粒胚;最后,建立自动化玉米籽粒表型管道,计算籽粒、胚、胚乳和空腔的共23项性状,用于玉米籽粒性状分析和品种鉴定。选取4个玉米品种籽粒(登海605、京科968、先正达408和农华5号)共120颗籽粒进行验证,结果表明籽粒CT扫描成像效率提高到1min/粒,籽粒表型提取效率为10s/粒,胚分割精度可达93.4%,粒长、粒宽和粒厚的R2分别为0.902、0.926和0.904,籽粒品种分类精度达90.4%。本文方法实现了玉米籽粒及其胚、胚乳、空腔三维结构无损、快速测量,提取的性状能够表征不同玉米品种籽粒间表型差异,为开展大规模玉米籽粒三维表型鉴定奠定了基础。  相似文献   

17.
针对目前植物解剖表型的测量与分析过程自动化低,难以应对复杂解剖表型的提取和识别的问题,以柑橘主叶脉为研究对象,提出了一种基于掩膜区域卷积神经网络(Mask region convolutional neural network, Mask R-CNN)的主叶脉显微图像实例分割模型,以残差网络ResNet50和特征金字塔(Feature pyramid network, FPN)为主干特征提取网络,在掩膜(Mask)分支上添加一个新的感兴趣区域对齐层(Region of interest Align, RoI-Align),提升Mask分支的分割精度。结果表明,该网络架构能够精准地对柑橘主叶脉横切面中的髓部、木质部、韧皮部和皮层细胞进行识别分割。Mask R-CNN模型对髓部、木质部、韧皮部和皮层细胞的分割平均精确率(交并比(IoU)为0.50)分别为98.9%、89.8%、95.7%和97.2%,对4个组织区域的分割平均精确率均值(IoU为0.50)为95.4%。与未在Mask分支添加RoI-Align的Mask R-CNN相比,精度提升1.6个百分点。研究结果表明,Mask R-CN...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号