首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 483 毫秒
1.
基于双目相机与改进YOLOv3算法的果园行人检测与定位   总被引:2,自引:0,他引:2  
景亮  王瑞  刘慧  沈跃 《农业机械学报》2020,51(9):34-39,25
针对复杂果园环境中行人难以精确检测并定位的问题,提出了一种双目相机结合改进YOLOv3目标检测算法的行人障碍物检测和定位方法。该方法采用ZED双目相机采集左右视图,通过视差原理获取图像像素点的距离信息;将双目相机一侧的RGB图像作为用树形特征融合模块改进的YOLOv3算法的输入,得到行人障碍物在图像中的位置信息,结合双目相机获得的像素位置信息计算出相对于相机的三维坐标。用卡耐基梅隆大学国家机器人工程中心开放的果园行人检测数据集测试改进的YOLOv3算法,结果表明,准确率和召回率分别达到95.34%和91.52%,高于原模型的94.86%和90.19%,检测速度达到30.26 f/ms。行人检测与定位试验表明,行人障碍物的定位在深度距离方向平均相对误差为1.65%,最大相对误差为3.80%。该方法具有快速性和准确性,可以较好地实现果园环境中的行人检测与定位,为无人驾驶农机的避障决策提供依据。  相似文献   

2.
针对果园目标检测时相机抖动以及物体相对运动导致检测图像模糊的问题,本文提出一种将DeblurGAN-v2去模糊网络和YOLOv5s目标检测网络相融合的D2-YOLO一阶段去模糊识别深度网络,用于检测识别果园模糊场景图像中的障碍物。为了减少融合网络的参数量并提升检测速度,首先将YOLOv5s骨干网络中的标准卷积替换成深度可分离卷积,并且在输出预测端使用CIoU_Loss进行边界框回归预测。融合网络使用改进的CSPDarknet作为骨干网络进行特征提取,将模糊图像恢复原始自然信息后,结合多尺度特征进行模型预测。为了验证本文方法的有效性,选取果园中7种常见的障碍物作为目标检测对象,在Pytorch深度学习框架上进行模型训练和测试。试验结果表明,本文提出的D2-YOLO去模糊识别网络准确率和召回率分别为91.33%和89.12%,与分步式DeblurGAN-v2+YOLOv5s相比提升1.36、2.7个百分点,与YOLOv5s相比分别提升9.54、9.99个百分点,能够满足果园机器人障碍物去模糊识别的准确性和实时性要求。  相似文献   

3.
为提高现有苹果目标检测模型在硬件资源受限制条件下的性能和适应性,实现在保持较高检测精度的同时,减轻模型计算量,降低检测耗时,减少模型计算和存储资源占用的目的,本研究通过改进轻量级的MobileNetV3网络,结合关键点预测的目标检测网络(CenterNet),构建了用于苹果检测的轻量级无锚点深度学习网络模型(M-CenterNet),并通过与CenterNet和单次多重检测器(Single Shot Multibox Detector,SSD)网络比较了模型的检测精度、模型容量和运行速度等方面的综合性能。对模型的测试结果表明,本研究模型的平均精度、误检率和漏检率分别为88.9%、10.9%和5.8%;模型体积和帧率分别为14.2MB和8.1fps;在不同光照方向、不同远近距离、不同受遮挡程度和不同果实数量等条件下有较好的果实检测效果和适应能力。在检测精度相当的情况下,所提网络模型体积仅为CenterNet网络的1/4;相比于SSD网络,所提网络模型的AP提升了3.9%,模型体积降低了84.3%;本网络模型在CPU环境中的运行速度比CenterNet和SSD网络提高了近1倍。研究结果可为非结构环境下果园作业平台的轻量化果实目标检测模型研究提供新的思路。  相似文献   

4.
基于改进YOLOv3-tiny的田间行人与农机障碍物检测   总被引:1,自引:0,他引:1  
为实现农机自主作业中的避障需求,本文针对室外田间自然场景中因植被遮挡、背景干扰而导致障碍物难以检测的问题,基于嵌入式平台应用设备,提出了农机田间作业时行人和农机障碍物检测的改进模型,更好地平衡了模型的检测速度与检测精度。该改进模型以You only look once version 3 tiny(YOLOv3-tiny)为基础框架,融合其浅层特征与第2 YOLO预测层特征作为第3预测层,通过更小的预选框增加小目标表征能力;在网络关键位置的特征图中混合使用注意力机制中的挤压激励注意模块(Squeeze and excitation attention module,SEAM) 与卷积块注意模块(Convolutional block attention module,CBAM),通过强化检测目标关注以提高抗背景干扰能力。建立了室外环境下含农机与行人的共9405幅图像的原始数据集。其中训练集7054幅,测试集2351幅。测试表明本文模型的内存约为YOLOv3与单次多重检测器(Single shot multibox detector,SSD)模型内存的1/3和2/3;与YOLOv3-tiny相比,本文模型平均准确率(Mean average precision,mAP)提高11个百分点,小目标召回率(Recall)提高14百分点。在Jetson TX2嵌入式平台上本文模型的平均检测帧耗时122ms,满足实时检测要求。  相似文献   

5.
基于轻量卷积结合特征信息融合的玉米幼苗与杂草识别   总被引:5,自引:0,他引:5  
孟庆宽  张漫  杨晓霞  刘易  张振仪 《农业机械学报》2020,51(12):238-245;303
针对自然环境下作物与杂草识别精度低、实时性和鲁棒性差等问题,以幼苗期玉米及其伴生杂草为研究对象,提出一种基于轻量卷积神经网络结合特征层信息融合机制的改进单步多框检测器(Single shot multibox detector,SSD)模型。首先,采用深度可分离卷积结合压缩与激励网络(Squeeze and excitation networks,SENet)模块构建轻量特征提取单元,在此基础上通过密集化连接构成轻量化前置基础网络,替代标准SSD模型中的VGG16网络,以提高图像特征提取速度;然后,基于不同分类特征层融合机制,将扩展网络中深层语义信息与浅层细节信息进行融合,融合后的特征图具有足够的分辨率和更强的语义信息,可以提高对小尺寸作物与杂草的检测准确率。试验结果表明,本文提出的深度学习检测模型对自然环境下玉米及其伴生杂草的平均精度均值为88.27%、检测速度为32.26f/s、参数量为8.82×10.6,与标准SSD模型相比,精度提高了2.66个百分点,检测速度提高了33.86%,参数量降低了66.21%,同时对小尺寸目标以及作物与杂草叶片交叠情况的识别具有良好的鲁棒性与泛化能力。本文方法可为农业自动化精准除草提供技术支持。  相似文献   

6.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

7.
为实现自然环境下蔬菜幼苗精准快速识别,本文以豆角、花菜、白菜、茄子、辣椒、黄瓜等形态差异大、具有代表性的蔬菜幼苗为研究对象,提出一种基于轻量化二阶段检测模型的多类蔬菜幼苗检测方法。模型采用混合深度分离卷积作为前置基础网络对输入图像进行运算,以提高图像特征提取速度与效率;在此基础上,引入特征金字塔网络(Feature pyramid networks, FPN)单元融合特征提取网络不同层级特征信息,用于增强深度学习检测模型对多尺度目标的检测精度;然后,通过压缩检测头网络通道维数和全连接层数量,降低模型参数规模与计算复杂度;最后,将距离交并比(Distance-IoU, DIoU)损失作为目标边框回归损失函数,使预测框位置回归更加准确。试验结果表明,本文提出的深度学习推理模型对多类蔬菜幼苗的平均精度均值为97.47%,识别速度为19.07 f/s,模型占用存储空间为60 MB,对小目标作物以及叶片遮挡作物的平均精度均值达到88.55%,相比于Faster R-CNN、R-FCN模型具有良好的泛化性能和鲁棒性,可以为蔬菜田间农业智能装备精准作业所涉及的蔬菜幼苗检测识别问题提供新方案。  相似文献   

8.
基于多尺度融合模块和特征增强的杂草检测方法   总被引:1,自引:0,他引:1  
针对单步多框检测器(Single shot multibox detector, SSD)网络模型参数多、小目标检测效果差、作物与杂草检测精度低等问题,提出一种基于多尺度融合模块和特征增强的杂草检测方法。首先将轻量网络MobileNet作为SSD模型的特征提取网络,并设计了一种多尺度融合模块,将浅层特征图先通过通道注意力机制增强图像中的关键信息,再将特征图经过不同膨胀系数的扩张卷积扩大感受野,最后将两条分支进行特征融合,对于检测小目标的浅层特征图,在包含较多小目标细节信息的同时,还包含丰富的语义信息。在此基础上对输出的6个特征图经过通道注意力机制进行特征增强。实验结果表明,本文提出的基于多尺度融合模块和特征增强的杂草检测模型,在自然环境下甜菜与杂草图像数据集中,平均检测精度可达88.84%,较标准SSD模型提高了3.23个百分点,参数量减少57.09%,检测速度提高88.44%,同时模型对小目标作物与杂草以及叶片交叠情况的检测能力均有提高。  相似文献   

9.
面向果园运输车果品采收自主运输作业场景,提出了一种基于VINS-MONO和改进YOLO v4-Tiny的果园自主寻筐方法。首先基于VINS-MONO视觉惯性里程计算法,进行果园运输车位置姿态的实时估计。然后基于改进YOLO v4-Tiny目标检测算法,根据图像数据进行果筐实时目标检测并获取对应深度信息。其次根据运输车当前位置姿态、果筐深度信息以及深度相机内参,进行被识别果筐位置更新。最后基于三次B样条曲线拟合原理,以被识别果筐位置为控制点,进行寻筐路径实时拟合,为果园运输车抵近果筐提供路线引导。试验结果表明:改进YOLO v4-Tiny果筐识别模型的平均识别精度为93.96%,平均推理时间为14.7 ms, 4 m内的果筐距离定位误差小于4.02%,果筐角度定位误差小于3°,果园运输车实测平均行驶速度为3.3 km/h,果筐搜寻路线平均更新时间为0.092 s,能够在果树行间和果园道路两种作业环境下稳定实现自主寻筐。该方法能够为果园运输车提供自主寻筐路径引导,为其视觉导航提供研究参考。  相似文献   

10.
为实现割草机器人在计算资源有限的情况下快速、准确地定位并识别工作环境中的障碍物,提出一种基于滤波器剪枝的改进YOLOv5s深度学习模型的割草机器人工作环境下障碍物的检测方法。首先,将YOLOv5模型中的Bottleneck残差块改为分层残差结构,以更细粒度地表示多尺度特征,同时增加网络感受野;另外,在残差块尾部加入SE模块,用来对特征图重新标定;其次,对改进后的算法进行滤波器剪枝;最后,针对割草机器人工作环境中的常见障碍物建立相关数据集,并使用剪枝后改进YOLOv5s作为深度学习模型进行检测。试验结果表明:改进后的YOLOv5模型大小减少188%,mAP增加0.1%。对改进YOLOv5模型进行剪枝后,比原YOLOv5模型计算量降低36.6%,模型大小降低333%,推理速度减少1.9 ms。剪枝后本文模型的mAP值分别比YOLOv4,YOLOv4-tiny,YOLOv3,YOLOv3-tiny高1.3%,9.5%,5.8%,22.1%。  相似文献   

11.
为满足目前农业机械(简称农机)自动驾驶中农田障碍物检测的需求,提出了一种使用三维激光雷达检测田间障碍物的方法.该方法首先对采集的环境点云进行预处理,采用体素栅格下采样滤波,将稠密的点云在不损失特征信息的情况下进行减量;采用三维长方体对角点划定感兴趣区域以便快速计算;采用随机采样一致性(RANSAC)算法检测出农田地面点...  相似文献   

12.
由于果园环境复杂、树冠特征单一,且叶片会引起光线漫反射等因素,导致果园环境的地图构建过程中出现误匹配,增大建图的累计误差。针对以上问题提出一种基于Scan Context与NDT-ICP相融合的果园环境导航地图构建方法。该方法首先对Ring key进行快速地上层搜索,得到候选帧,并对候选帧与当前帧进行相似度评分,通过两阶段搜索算法来有效地检测回环以减少果园环境地图中的误匹配。同时使用基于正态分布变换粗配准与迭代最近点精确配准融合的点云配准方法降低果园环境地图的累计误差。试验结果表明,在KITTI数据集中使用半径搜索回环检测的回环数为42,使用Scan Context回环检测的回环数为51,回环数提高21.4%。NDT-ICP匹配算法的均方根误差为12.86 m,ICP匹配算法的均方根误差为15.11 m。在真实果园环境中使用半径搜索回环检测的回环数为196,使用Scan Context回环检测的回环数为261,回环数提高33.2%。该研究算法有效地降低果园环境地图构建过程中的误匹配、累计误差大的影响,满足果园环境下的高精度环境建图需求,为推进果园环境的无人化作业提供技术支撑。  相似文献   

13.
为在有限的嵌入式设备资源下达到实时检测要求,提出一种基于改进YOLO v5的百香果轻量化检测模型(MbECA-v5)。首先,使用MobileNetV3替换主干特征提取网络,利用深度可分离卷积代替传统卷积减少模型的参数量。其次,嵌入有效通道注意力网络(ECANet)关注百香果整体,引入逐点卷积连接特征提取网络和特征融合网络,提高网络对百香果图像的特征提取能力和拟合能力。最后,运用跨域与域内多轮训练相结合的迁移学习策略提高网络检测精度。试验结果表明,改进后模型的精确率和召回率为95.3%和88.1%;平均精度均值为88.3%,较改进前提高0.2个百分点。模型计算量为6.6 GFLOPs,体积仅为6.41MB,约为改进前模型的1/2,在嵌入式设备实时检测速度为10.92f/s,约为SSD、Faster RCNN、YOLO v5s模型的14倍、39倍、1.7倍。因此,基于改进YOLO v5的轻量化模型提高了检测精度和大幅降低了计算量和模型体积,在嵌入式设备上能够高效实时地对复杂果园环境中的百香果进行检测。  相似文献   

14.
针对大田蔬菜对靶施药过程中靶标难以精准识别定位的问题,以甘蓝为研究对象,进行基于深度学习的靶标在线识别方法与模型研究。对比3种当前性能较优的目标检测模型Faster R-CNN、SSD和YOLO v5s,选择YOLO v5s作为田间甘蓝识别迁移学习模型,提出一种MobileNet v3s主干特征提取网络与深度可分离卷积融合的YOLO-mdw大田甘蓝目标识别方法,实现复杂环境下的大田甘蓝实时识别;提出一种基于卡尔曼滤波和匈牙利算法的甘蓝目标定位方法,并将模型部署于NVIDIA Xavier NX开发板上。试验结果表明,YOLO-mdw识别模型在晴天、多云、阴雨天气条件下识别准确率分别为93.14%、94.75%和94.23%,图像处理时间为54.09 ms,相对于YOLO v5s模型用时缩短26.98%;速度不大于0.6 m/s时,识别准确率达94%,平均定位误差为4.13 cm,平均甘蓝直径识别误差为1.42 cm。该靶标识别系统能在大田复杂环境下对甘蓝进行实时识别定位,为对靶施药提供技术支持。  相似文献   

15.
基于Faster R-CNN的田间西兰花幼苗图像检测方法   总被引:4,自引:0,他引:4  
为解决自然环境下作物识别率不高、鲁棒性不强等问题,以西兰花幼苗为研究对象,提出了一种基于Faster R-CNN模型的作物检测方法。根据田间环境特点,采集不同光照强度、不同地面含水率和不同杂草密度下的西兰花幼苗图像,以确保样本多样性,并通过数据增强手段扩大样本量,制作PASCAL VOC格式数据集。针对此数据集训练Faster R-CNN模型,通过设计ResNet101、ResNet50与VGG16网络的对比试验,确定ResNet101网络为最优特征提取网络,其平均精度为90. 89%,平均检测时间249 ms。在此基础上优化网络超参数,确定Dropout值为0. 6时,模型识别效果最佳,其平均精度达到91. 73%。结果表明,本文方法能够对自然环境下的西兰花幼苗进行有效检测,可为农业智能除草作业中的作物识别提供借鉴。  相似文献   

16.
农机自动驾驶系统是无人农场的关键技术之一,已在拖拉机、联合收割机、农业机器人等农业装备中有一定的应用并成为学术界研究的热点。从硬件基础与底层技术方面详细梳理农机自动驾驶技术原理,指出其核心内容在于环境感知、决策与规划、控制与执行3个环节,并逐一分析各环节实现原理与国内外主要研究成果;总结农机自动驾驶相对有人驾驶在作业精度、效率、降低作业强度等方面优势与在动态路径规划、地头自动转向以及系统可靠性与安全性方面的不足;同时,分析全球农机自动驾驶产业竞争环境,着重阐述中国市场竞争环境,指出农机自动驾驶系统价格及服务体系、机械化水平、下游消费者受教育程度低等问题是制约产业发展的主要因素;预测未来研究热点将集中在机群协同作业、障碍物检测、主动避障以及与5G融合塑造以无人化为核心的无人农业等方面。对于我国无人农业的建设与发展、重塑中国农业生产模式有较好的借鉴意义。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号