首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 171 毫秒
1.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

2.
基于改进YOLO v5的夜间温室番茄果实快速识别   总被引:2,自引:0,他引:2  
为实现日光温室夜间环境下采摘机器人正常工作以及番茄快速识别,提出一种基于改进YOLO v5的夜间番茄果实的识别方法。采集夜间环境下番茄图像2 000幅作为训练样本,通过建立一种基于交并比的CIOU目标位置损失函数,对原损失函数进行改进,根据计算函数anchor生成自适应锚定框,确定最佳锚定框尺寸,构建改进型YOLO v5网络模型。试验结果表明,改进YOLO v5网络模型对夜间环境下番茄绿色果实识别精度、红色果实识别精度、综合平均识别精度分别为96.2%、97.6%和96.8%,对比CNN卷积网络模型及YOLO v5模型,提高了被遮挡特征物与暗光下特征物的识别精度,改善了模型鲁棒性。将改进YOLO v5网络模型通过编译将训练结果写入安卓系统制作快速检测应用软件,验证了模型对夜间环境下番茄果实识别的可靠性与准确性,可为番茄实时检测系统的相关研究提供参考。  相似文献   

3.
针对不同光照,遮挡重叠,大视场等复杂环境下,自动采摘机器人无法快速准确地识别果蔬目标的问题,提出一种用于复杂环境下果蔬检测的改进YOLOv5(You Only Look Once v5)算法。首先,在主干网络Backbone中的CBL模块中嵌入卷积注意力机制(Convolutional Block Attention Module, CBAM),提高目标特征的提取能力。其次,引入完全交并比非极大抑制算法(Complete IOU Non-maximum suppression, CIOU-NMS),考虑长宽边长真实差,提高回归精度。最后,用加权双向特征金字塔网络(Bidirectional Feature Pyramid Network, BiFPN)替换原始YOLOv5的路径聚合网络(PANet),融合多尺度特征提高识别精度和准确率。以苹果为例进行试验,结果表明:改进YOLOv5算法精准率为94.7%,召回率为87%,平均精度为92.5%,相比于原始YOLOv5算法AP提高3.5%,在GPU下的检测时间为11 ms,可以实现复杂情况下的果蔬快速准确识别。  相似文献   

4.
针对two-stage网络模型训练成本高,无人机搭载的边缘计算设备检测速度低等问题,提出一种基于改进YOLO v4模型的受灾树木实时检测方法,以提高对落叶松毛虫虫害树木的识别精度与检测速度。以黑龙江省大兴安岭地区呼玛县白银纳乡受落叶松毛虫侵害的落叶松无人机图像为数据,利用LabelImg软件标注75~100 m的无人机图像,构建落叶松毛虫虫害树木图像数据集。将CSPNet应用于YOLO v4模型的Neck架构,重新设计Backbone的特征提取网络——CSPDarknet53模型结构,并在CSPNet进行优化计算前的卷积中加入SENet以增加感受野信息,使其改变网络的深度、宽度、分辨率及网络结构,实现模型缩放,提高检测精度。同时,在PANet中使用CSPConvs卷积代替原有卷积Conv×5,最后经过YOLO Head检测输出预测结果。将YOLO v4-CSP网络模型部署至GPU进行训练,训练过程的内存降低至改进前的82.7%。再搭载至工作站进行测试,结果表明:改进的YOLO v4-CSP网络模型在测试阶段对虫害树木检测的正确率为97.50%,相比于YOLO v4的平均正确率提高3.4...  相似文献   

5.
针对目前群养生猪智能化养殖中复杂环境下猪只目标检测精度低的问题,提出了一种基于改进YOLOX的群养生猪轻量化目标检测模型Ghost-YOLOX-BiFPN。该模型采用Ghost卷积替换普通卷积,在减少主干网络参数的情况下,提高了模型的特征提取能力。使用加入CBAM注意力机制的BiFPN作为模型的Neck部分,使得模型充分融合不同体型猪只的特征图,并使用Focal Loss损失函数解决猪圈环境下猪只与背景难以区分的问题,增强模型对正样本的学习。实验结果表明,改进后模型对群养生猪检测精度为95.80%,相比于原始YOLOX算法,检测精度提升2.84个百分点,参数量降低63%。最后将本文轻量化模型部署到Nvidia Jetson Nano移动端开发板,通过在开发板上实际运行表明,本文所提模型实现了对不同大小、不同品种猪只的准确识别,为后续智能化生猪养殖提供支持。  相似文献   

6.
针对自然果园环境下苹果果实识别中,传统的目标检测算法往往很难在检测模型的检测精度、速度和轻量化方面实现平衡,提出了一种基于改进YOLO v7的轻量化苹果检测模型。首先,引入部分卷积(Partial convolution,PConv)替换多分支堆叠模块中的部分常规卷积进行轻量化改进,以降低模型的参数量和计算量;其次,添加轻量化的高效通道注意力(Efficient channel attention,ECA)模块以提高网络的特征提取能力,改善复杂环境下遮挡目标的错检漏检问题;在模型训练过程中采用基于麻雀搜索算法(Sparrow search algorithm,SSA)的学习率优化策略来进一步提高模型的检测精度。试验结果显示:相比于YOLO v7原始模型,改进后模型的精确率、召回率和平均精度分别提高4.15、0.38、1.39个百分点,其参数量和计算量分别降低22.93%和27.41%,在GPU和CPU上检测单幅图像的平均用时分别减少0.003s和0.014s。结果表明,改进后的模型可以实时准确地识别复杂果园环境中的苹果,模型参数量和计算量较小,适合部署于苹果采摘机器人的嵌入式设备上,为实现苹果的无人化智能采摘奠定了基础。  相似文献   

7.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

8.
基于改进YOLO v3网络的夜间环境柑橘识别方法   总被引:9,自引:0,他引:9  
为研究夜间环境下采摘机器人的视觉检测技术,实现采摘机器人的夜间作业,提出了一种多尺度卷积神经网络Des-YOLO v3算法,可实现夜间复杂环境下成熟柑橘的识别与检测。借鉴残差网络和密集连接网络,设计了Des-YOLO v3网络结构,实现了网络多层特征的复用和融合,加强了小目标和重叠遮挡果实识别的鲁棒性,显著提高了果实检测精度。柑橘识别试验结果表明, Des-YOLO v3网络的精确率达97.67%、召回率为97.46%、F1值为0.976,分别比YOLO v3网络高6.26个百分点、6.36个百分点和0.063。同时,经过训练的模型在测试集下的平均精度(mAP)为90.75%、检测速度达53f/s,高于YOLO v3_DarkNet53网络的平均精度88.48%,mAP比YOLO v3_DarkNet53网络提高了2.27个百分点,检测速度比YOLO v3_DarkNet53网络提高了11f/s。研究结果表明,本文提出的Des-YOLO v3网络对野外夜间复杂环境下成熟柑橘的识别具有更强的鲁棒性和更高的检测精度,为柑橘采摘机器人的视觉识别提供了技术支持。  相似文献   

9.
玉米苗期杂草的实时检测和精准识别是实现精准除草和智能农业的基础和前提。针对保护性耕作模式地表环境复杂、杂草易受地表秸秆残茬覆盖影响、现有算法检测速度不理想等问题,提出一种适用于Jetson TX2移动端部署的秸秆覆盖农田杂草检测方法。运用深度学习技术对玉米苗期杂草图像的高层语义信息进行提取与分析,构建玉米苗期杂草检测模型。在YOLO v5s模型的基础上,缩小网络模型宽度对其进行轻量化改进。为平衡模型检测速度和检测精度,采用TensorRT推理加速框架解析网络模型,融合推理网络中的维度张量,实现网络结构的重构与优化,减少模型运行时的算力需求。将模型迁移部署至Jetson TX2移动端平台,并对各模型进行训练测试。检测结果表明,轻量化改进YOLO v5ss、YOLO v5sm、YOLO v5sl模型的精确率分别为85.7%、94%、95.3%,检测速度分别为80、79.36、81.97 f/s, YOLO v5sl模型综合表现最佳。在Jetson TX2嵌入式端推理加速后,YOLO v5sl模型的检测精确率为93.6%,检测速度为28.33 f/s,比模型加速前提速77.8%,能够在保证检...  相似文献   

10.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

11.
针对自主采茶机器人,研究了在茶园自然光环境下如何高效识别茶叶嫩芽。针对自然光条件下采集的茶叶图像含有大量噪声的情况,为了避免一些像素值变化剧烈的像素点,根据分析,最终选用双边滤波去噪算法,对茶叶原始图像进行平滑滤波的同时,还能有效保留图形的边缘等有用信息。采用一种新的基于颜色通道调换的算法来增大茶叶嫩芽和老叶以及环境的对比度,然后提取茶叶的颜色特征,进而分割提取出茶叶嫩芽。实验结果表明:基于颜色通道变换的算法具有高效稳定等优点,能够很好地识别茶叶嫩芽,可以满足自主采茶机器人对茶叶嫩芽识别的要求。该算法为后续自主采茶机器人的研发提供了技术支持。  相似文献   

12.
为有效识别茶叶嫩芽提高机械采摘精度、规划采摘路线以避免伤害茶树,针对传统目标检测算法在复杂背景下检测精度低、鲁棒性差、速度慢等问题,探索了基于Faster R-CNN目标检测算法在复杂背景下茶叶嫩芽检测方面的应用。首先对采集图像分别进行等分裁切、标签制作、数据增强等处理,制作VOC2007数据集;其次在计算机上搭建深度学习环境,调整参数进行网络模型训练;最后对已训练模型进行测试,评价已训练模型的性能,并同时考虑了Faster R-CNN模型对于嫩芽类型(单芽和一芽一叶/二叶)的检测精度。结果表明,当不区分茶叶嫩芽类型时,平均准确度(AP)为54%,均方根误差(RMSE)为3.32;当区分茶叶嫩芽类型时,单芽和一芽一叶/二叶的AP为22%和75%,RMSE为2.84;另外剔除单芽后,一芽一叶/二叶的AP为76%,RMSE为2.19。通过对比基于颜色特征和阈值分割的茶叶嫩芽识别算法(传统目标检测算法),表明深度学习目标检测算法在检测精度和速度上明显优于传统目标检测算法(RMSE为5.47),可以较好地识别复杂背景下的茶叶嫩芽。  相似文献   

13.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

14.
针对名优茶机械化采摘过程中侧芽无法采摘的问题,根据顶芽、侧芽及茶梗的相关参数并结合茶园环境设计了一种末端执行器,利用分体式刀具的刀齿弯曲变形适应茶梗的干扰从而采摘侧芽。通过有限元仿真刀具切割侧芽得到采摘成功率的影响因素为刀齿宽度、刀齿长度及刀具厚度;采用三因素三水平的中心组合设计与响应面分析法研究各因素对采摘成功率的交互影响;以采摘成功率为响应值建立二次回归模型,确定各因素对采摘成功率的影响显著性主次排序为:刀齿长度、刀齿宽度、刀具厚度。以采摘成功率为目标对各试验因素进行优化,得到优化后的刀齿宽度、刀具厚度、刀齿长度分别为2.6、0.9、20.0mm。采用优化后的参数进行茶园采摘试验,结果表明,末端执行器能够有效完成茶叶采摘工作,顶芽、侧芽采摘成功率分别为93%、63%,试验值与预测值的相对误差小于5%,优化模型结果可靠。  相似文献   

15.
为提高采摘设备的执行效率,采用六自由度机械臂、树莓派、Android手机端和服务器设计了一种智能果实采摘系统,该系统可自动识别不同种类的水果,并实现自动采摘,可通过手机端远程控制采摘设备的起始和停止,并远程查看实时采摘视频。提出通过降低自由度和使用二维坐标系来实现三维坐标系中机械臂逆运动学的求解过程,从而避免了大量的矩阵运算,使机械臂逆运动学求解过程更加简捷。利用Matlab中的Robotic Toolbox进行机械臂三维建模仿真,验证了降维求解的可行性。在果实采摘流程中,为了使机械臂运动轨迹更加稳定与协调,采用五项式插值法对机械臂进行运动轨迹规划控制。基于Darknet深度学习框架的YOLO v4目标检测识别算法进行果实目标检测和像素定位,在Ubuntu 19.10操作系统中使用2000幅图像作为训练集,分别对不同种类的果实进行识别模型训练,在GPU环境下进行测试,结果表明,每种果实识别的准确率均在94%以上,单次果实采摘的时间约为17s。经过实际测试,该系统具有良好的稳定性、实时性以及对果实采摘的准确性。  相似文献   

16.
基于多源图像融合的自然环境下番茄果实识别   总被引:1,自引:0,他引:1  
蔬果采摘机器人面对的自然场景复杂多变,为准确识别和分割目标果实,实现高成功率采收,提出基于多源图像融合的识别方法。首先,针对在不同自然场景下单图像通道信息不充分问题,提出融合RGB图像、深度图像和红外图像的多源信息融合方法,实现了机器人能够适应自然环境中不同光线条件的番茄果实。其次,针对传统机器学习训练样本标注低效问题,提出聚类方法对样本进行辅助快速标注,完成模型训练;最终,建立扩展Mask R-CNN深度学习算法模型,进行采摘机器人在线果实识别。实验结果表明,扩展Mask R-CNN算法模型在测试集中的检测准确率为98.3%、交并比为0.916,可以满足番茄果实识别要求;在不同光线条件下,与Otsu阈值分割算法相比,扩展Mask R-CNN算法模型能够区分粘连果实,分割结果清晰完整,具有更强的抗干扰能力。  相似文献   

17.
日常行为是家畜健康状况的重要体现,在传统的行为识别方法中,通常需要人工或者依赖工具对家畜进行观察。为解决以上问题,基于YOLO v5n模型,提出了一种高效的绵羊行为识别方法,利用目标识别算法从羊圈斜上方的视频序列中识别舍养绵羊的进食、躺卧以及站立行为。首先用摄像头采集养殖场中羊群的日常行为图像,构建绵羊行为数据集;其次在YOLO v5n的主干特征提取网络中引入SE注意力机制,增强全局信息交互能力和表达能力,提高检测性能;采用GIoU损失函数,减少训练模型时的计算开销并提升模型收敛速度;最后,在Backbone主干网络中引入GhostConv卷积,有效地减少了模型计算量和参数量。实验结果表明,本研究提出的GS-YOLO v5n目标检测方法参数量仅为1.52×106,相较于原始模型YOLO v5n减少15%;浮点运算量为3.3×109,相较于原始模型减少30%;且平均精度均值达到95.8%,相比于原始模型提高4.6个百分点。改进后模型与当前主流的YOLO系列目标检测模型相比,在大幅减少模型计算量和参数量的同时,检测精度均有较高提升。在边缘设备上进行部署,达到了实时检测要求,可准确快速地对绵羊进行定位并检测。  相似文献   

18.
基于改进YOLO v4网络的马铃薯自动育苗叶芽检测方法   总被引:1,自引:0,他引:1  
为提高马铃薯幼苗叶芽检测识别的准确率,提高自动育苗生产系统的工作效率,提出了基于YOLO v4网络的改进识别网络。将YOLO v4特征提取部分CSPDarknet53中的残差块(Residual Block)替换为Res2Net,并采用深度可分离卷积操作减小计算量。由此,在增大卷积神经网络感受野的同时,能够获得叶芽更加细小的特征信息,减少马铃薯叶芽的漏检率。设计了基于扩张卷积的空间特征金字塔(D-SPP模块),并嵌入和替换到特征提取部分的3个特征层输出中,用于提高马铃薯叶芽目标识别定位的准确性。采用消融实验对改进策略的有效性进行了验证分析。实验结果表明,改进的识别网络对马铃薯叶芽检测的精确率为95.72%,召回率为94.91%,综合评价指标F1值为95%,平均精确率为96.03%。与Faster R-CNN、YOLO v3、YOLO v4网络相比,改进的识别网络具有更好的识别性能,从而可有效提高马铃薯自动育苗生产系统的工作效率。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号