首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 734 毫秒
1.
准确识别定位绿熟期番茄果实是实现其自动采摘的必要前提.由于绿熟期番茄的表面颜色仍为青色与叶片、枝干颜色接近,特别是存在叶片、枝干遮挡和果实重叠类型的图像,传统的图像检测处理方法不能准确进行定位.为解决此问题,采用改进的深度学习目标检测算法YOLO?v3进行番茄检测,将原算法的骨干网络DarkNet?53改为更轻量化的M...  相似文献   

2.
针对辣椒采摘受环境光、枝叶遮挡和果实重叠的影响问题,构建了基于YOLOv3模型和realsense深度相机的识别定位系统,研究不同补光位置、枝叶遮挡和果实重叠程度对辣椒识别和定位精度的影响规律。结果表明:模型召回率Recall达0.98,平均精度均值mAP达0.95,精确率precision达0.854;不同光照场景下,识别成功率由高到低依次为正向光、顶光、侧光和背光;轻度枝叶遮挡和轻微果实重叠时,模型识别成功率均保持在96%左右,综合定位误差最大为0.024m,满足辣椒采摘机器人识别和定位精度需求。  相似文献   

3.
黄明辉  程忠 《南方农机》2023,(16):135-138
【目的】在算力资源有限的嵌入式设备上对目标苹果进行快速、准确的识别与定位。【方法】研究小组对采摘机器人的目标识别与定位方法进行研究,以YOLOv4网络模型为基础,对YOLOv4进行轻量化改进,使用MobileNet V3作为特征提取的主干网络,减少模型的计算量,并结合ZED双目相机与定位算法在嵌入式平台上进行实验。【结果】实验表明:1)在目标识别方面,改进后模型的平均检测精度为87.32%,模型的大小为53.76 MB,较改进前降低了79%。2)采用ZED相机结合测距算法进行了苹果目标定位实验,ZED双目相机的测距误差可控制在0.02 m以内,同时改进的YOLOv4算法的平均检测速度在15FPS左右。【结论】改进后的YOLOv4网络模型更适合部署在算力有限的嵌入式设备中进行苹果采摘任务,且能够满足苹果采摘任务的实时性要求。因此,该方法可以为苹果采摘机器人的识别与定位提供技术参考。  相似文献   

4.
苹果采摘机器人目标果实快速跟踪识别方法   总被引:10,自引:0,他引:10  
为了减少苹果采摘机器人采摘过程处理时间,对苹果采摘机器人目标果实的快速跟踪识别方法进行了研究。对基于R-G颜色特征的OTSU动态阈值分割方法进行首帧采集图像分割,采用图像中心原则确定要采摘的目标果实;利用所采集图像之间的信息关联性,在不断缩小图像处理区域的同时,采用经过加速优化改进的去均值归一化积相关模板匹配算法来跟踪识别后帧图像的目标果实,并进行不同阈值分割方法实现效果,不同灰度、亮度和对比度的匹配识别以及新旧方法识别时间对比试验,从而验证了所采用和设计方法的有效性;其中所设计跟踪识别方法的识别时间相比于原方法,减少36%。  相似文献   

5.
基于激光视觉的智能识别苹果采摘机器人设计   总被引:1,自引:0,他引:1  
为了提高苹果采摘视觉识别系统的精度,增强视觉系统的抗干扰能力和自适应能力,设计了一种新的苹果采摘机器人激光视觉识别系统,可以直接获得层次关系的深度图像,实现了果园非结构化环境中果实的识别与定位。为了测试激光识别系统苹果采摘机器人的采摘效果,在果园中对其采摘性能进行了测试:首先采用高清相机完成了对果实图像的采集,通过图像处理准确地实现了苹果的识别,在遮挡率低于50%时其识别率达到了90%以上;然后利用激光测距方法对苹果进行距离测量,成功定位了果实位置,其响应时间仅为3.58s,动作效率快,实现了苹果的高效率、高精度采摘功能。  相似文献   

6.
为实现苹果果径与果形快速准确自动化分级,提出了基于改进型SSD卷积神经网络的苹果定位与分级算法。深度图像与两通道图像融合提高苹果分级效率,即对从顶部获取的苹果RGB图像进行通道分离,并提取分离通道中影响苹果识别精度最大的两个通道与基于ZED双目立体相机从苹果顶部获取的苹果部分深度图像进行融合,在融合图像中计算苹果的纵径相关信息,实现了基于顶部融合图像的多个苹果果形分级和信息输出;使用深度可分离卷积模块替换原SSD网络主干特征提取网络中部分标准卷积,实现了网络的轻量化。经过训练的算法在验证集下的识别召回率、精确率、mAP和F1值分别为93.68%、94.89%、98.37%和94.25%。通过对比分析了4种输入层识别精确率的差异,实验结果表明输入层的图像通道组合为DGB时对苹果的识别与分级mAP最高。在使用相同输入层的情况下,比较原SSD、Faster R-CNN与YOLO v5算法在不同果实数目下对苹果的实际识别定位与分级效果,并以mAP为评估值,实验结果表明改进型SSD在密集苹果的mAP与原SSD相当,比Faster R-CNN高1.33个百分点,比YOLO v5高14.23个百分点...  相似文献   

7.
针对采摘机器人对场景中目标分布密集、果实相互遮挡的检测及定位能力不理想问题,提出一种引入高效通道注意力机制(ECA)和多尺度融合特征金字塔(FPN)改进Faster R-CNN果实检测及定位方法。首先,利用表达能力较强的融合FPN的残差网络ResNet50替换原VGG16网络,消除了网络退化问题,进而提取更加抽象和丰富的语义信息,提升模型对多尺度和小目标的检测能力;其次,引入注意力机制ECA模块,使特征提取网络聚焦特征图像的局部高效信息,减少无效目标的干扰,提升模型检测精度;最后,采用一种枝叶插图数据增强方法改进苹果数据集,解决图像数据不足问题。基于构建的数据集,使用遗传算法优化K-means++聚类生成自适应锚框,提高模型定位准确性。试验结果表明,改进模型对可抓取和不可直接抓取苹果的精度均值分别为96.16%和86.95%,平均精度均值为92.79%,较传统Faster R-CNN提升15.68个百分点;对可抓取和不可直接抓取的苹果定位精度分别为97.14%和88.93%,较传统Faster R-CNN分别提高12.53个百分点和40.49个百分点;内存占用量减少38.20%,每帧平均计算时间缩短40.7%,改进后的模型参数量小且实时性好,能够更好地应用于果实采摘机器人视觉系统。  相似文献   

8.
苹果采摘机器人夜间识别方法   总被引:5,自引:0,他引:5  
提出了一种适用于苹果采摘机器人夜间识别的方法。在图像采集阶段,通过对比不同光源的照明效果,选用白炽灯作为照明光源并采用2盏白炽灯从不同角度照明的方式削弱图像中的阴影。在图像分割阶段,对比白天图像的分割方法,提出改进R-G色差分割法。此外针对夜间图像中的高亮反光区,采用二次分割的方法提取出水果表面的高亮反光区以此对分割后的图像进行修补,以得到完整的分割结果。经统计不考虑果实的遮挡和粘连,夜间苹果正确识别率达到83.7%。  相似文献   

9.
为解决目前农业采摘机器人目标难以识别与定位的问题,在原有农业采摘机器人的基础上,提出一种改进YOLOv3算法和3D视觉技术相结合的方法,实现目标的准确识别和精准定位,并利用标定完成目标坐标系和机器人坐标系的转换。通过试验分析改进YOLOv3算法的性能,并与之前的YOLOv3算法、Fast RCNN算法和Faster RCNN算法进行综合比较,研究表明所采用的改进YOLOv3算法和3D视觉具有较高的识别准确度和定位精度,识别准确率分别提高55%、9%、1.4%,最大定位误差分别降低0.69、0.44、0.28 mm,可以较好地完成后续采摘工作,对于农业机器人的发展具有重要的参考价值。  相似文献   

10.
毛桃等果实的准确检测是实现机械化、智能化农艺管理的必要前提。然而,由于光照不均和严重遮挡,在果园中实现毛桃,尤其是套袋毛桃的检测一直面临着挑战。本研究基于改进YOLOv5s和多模态视觉数据提出了面向机械化采摘的毛桃多分类准确检测。具体地,构建了一个多类标签的裸桃和套袋毛桃的RGB-D数据集,包括4127组由消费级RGB-D相机获取的像素对齐的彩色、深度和红外图像。随后,通过引入方向感知和位置敏感的注意力机制,提出了改进的轻量级YOLOv5s(小深度)模型,该模型可以沿一个空间方向捕捉长距离依赖,并沿另一个空间方向保留准确的位置信息,提高毛桃检测精度。同时,通过将卷积操作分解为深度方向的卷积与宽度、高度方向的卷积,使用深度可分离卷积在保持模型检测准确性的同时减少模型的计算量、训练和推理时间。实验结果表明,使用多模态视觉数据的改进YOLOv5s模型在复杂光照和严重遮挡环境下,对裸桃和套袋毛桃的平均精度(Mean Average Precision,mAP)分别为98.6%和88.9%,比仅使用RGB图像提高了5.3%和16.5%,比YOLOv5s提高了2.8%和6.2%。在套袋毛桃检测方面,改进YOLOv5s的mAP比YOLOX-Nano、PP-YOLO-Tiny和EfficientDet-D0分别提升了16.3%、8.1%和4.5%。此外,多模态图像、改进YOLOv5s对提升自然果园中的裸桃和套袋毛桃的准确检测均有贡献,所提出的改进YOLOv5s模型在检测公开数据集中的富士苹果和猕猴桃时,也获得了优于传统方法的结果,验证了所提出的模型具有良好的泛化能力。最后,在主流移动式硬件平台上,改进后的YOLOv5s模型使用五通道多模态图像时检测速度可达每秒19幅,能够实现毛桃的实时检测。上述结果证明了改进的YOLOv5s网络和含多类标签的多模态视觉数据在实现果实自动采摘系统视觉智能方面的应用潜力。  相似文献   

11.
为探究不同振动参数组合对苹果采摘效果的影响,建立苹果树二级树枝振动力学模型,解析分析得到影响苹果脱落的主要因素为振动频率、振幅及夹持位置。测量苹果树形态特征并基于矮砧密植整形原理建立纺锤形苹果树三维模型,利用ANSYS软件对苹果树模型进行有限元仿真分析,仿真结果表明,振动频率4~8Hz、振幅20~30mm、夹持位置0.35l~0.65l(l为二级树枝长度)时,对果树损伤较小且苹果易脱落。设计四因素三水平振动采摘试验,以确定苹果树不同位置树枝最佳的振动参数组合,利用Design-Expert软件对试验数据进行分析和响应面优化,参数优化结果为:采摘苹果树上层苹果时,振动频率为5Hz,振幅为28mm,夹持位置为0.40l;采摘苹果树中层苹果时,振动频率为4Hz,振幅为30mm,夹持位置为0.43l;采摘苹果树下层苹果时,振动频率为8Hz,振幅为20mm,夹持位置为0.65l;通过验证试验得到苹果树上层、中层、下层摘净率为96.4%、94.8%、93.2%,与优化值相近,表明优化模型可靠。  相似文献   

12.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

13.
针对不同光照,遮挡重叠,大视场等复杂环境下,自动采摘机器人无法快速准确地识别果蔬目标的问题,提出一种用于复杂环境下果蔬检测的改进YOLOv5(You Only Look Once v5)算法。首先,在主干网络Backbone中的CBL模块中嵌入卷积注意力机制(Convolutional Block Attention Module, CBAM),提高目标特征的提取能力。其次,引入完全交并比非极大抑制算法(Complete IOU Non-maximum suppression, CIOU-NMS),考虑长宽边长真实差,提高回归精度。最后,用加权双向特征金字塔网络(Bidirectional Feature Pyramid Network, BiFPN)替换原始YOLOv5的路径聚合网络(PANet),融合多尺度特征提高识别精度和准确率。以苹果为例进行试验,结果表明:改进YOLOv5算法精准率为94.7%,召回率为87%,平均精度为92.5%,相比于原始YOLOv5算法AP提高3.5%,在GPU下的检测时间为11 ms,可以实现复杂情况下的果蔬快速准确识别。  相似文献   

14.
为实现果实拾捡机器人在光照不均、菠萝与周围环境的颜色相似性及果实间的遮挡和重叠等田间复杂环境下对单类别菠萝的快速准确识别,提出采用深度学习下的深层残差网络改进YOLOv3卷积神经网络结构,通过单个卷积神经网络遍历整个图像,回归果实的位置,将改进的YOLOv3的3个尺度检测分别融合相同尺度模块特征层的信息,在保证识别准确率的情况下,采用多尺度融合训练网络实现田间复杂环境下端对端的单类别菠萝果实检测。最后,对改进的算法进行性能评价与对比试验,结果表明,该算法的检测识别率达到95%左右,较原始方法检测性能提升的同时,检测速度满足实时性要求,该研究为拾捡果实机器人在复杂环境下提高识别菠萝果实的工作效率和环境适应性提供理论基础。  相似文献   

15.
果树测产是果园管理的重要环节之一,为提升苹果果园原位测产的准确性,本研究提出一种包含改进型YOLOv5果实检测算法与产量拟合网络的产量测定方法。利用无人机及树莓派摄像头采集摘袋后不同着色时间的苹果果园原位图像,形成样本数据集;通过更换深度可分离卷积和添加注意力机制模块对YOLOv5算法进行改进,解决网络中存在的特征提取时无注意力偏好问题和参数冗余问题,从而提升检测准确度,降低网络参数带来的计算负担;将图片作为输入得到估测果实数量以及边界框面总积。以上述检测结果作为输入、实际产量作为输出,训练产量拟合网络,得到最终测产模型。测产试验结果表明,改进型YOLOv5果实检测算法可以在提高轻量化程度的同时提升识别准确率,与改进前相比,检测速度最大可提升15.37%,平均mAP最高达到96.79%;在不同数据集下的测试结果表明,光照条件、着色时间以及背景有无白布均对算法准确率有一定影响;产量拟合网络可以较好地预测出果树产量,在训练集和测试集的决定系数R2分别为0.7967和0.7982,均方根误差RMSE分别为1.5317和1.4021 ㎏,不同产量样本的预测精度基本稳定;果树测产模型在背景有白布和无白布的条件下,相对误差范围分别在7%以内和13%以内。本研究提出的基于轻量化改进YOLOv5的果树产量测定方法具有良好的精度和有效性,基本可以满足自然环境下树上苹果的测产要求,为现代果园环境下的智能农业装备提供技术参考。  相似文献   

16.
果实识别是视觉检测技术重要的环节,其识别精度易受复杂的生长环境及果实状态的影响。以大棚环境下单个、一簇、光照、阴影、遮挡、重叠6种复杂生长状态下的番茄果实为对象,提出一种基于改进YOLOv4网络模型与迁移学习相结合的番茄果实识别方法。首先利用ImageNet数据集与VGG网络模型前端16卷积层进行模型参数预训练,将训练的模型参数初始化改进模型的权值以代替原始的初始化操作,然后使用番茄数据集在VGG19的卷积层与YOLOV4的主干网络相结合的新模型中进行训练,获得最优权重实现对复杂环境下的番茄果实进行检测。最后,将改进模型与Faster RCNN、YOLOv4-Tiny、YOLOv4网络模型进行比较。研究结果表明,改进模型在6种复杂环境下番茄果实平均检测精度值mAP达到89.07%、92.82%、92.48%、93.39%、93.20%、93.11%,在成熟、半成熟、未成熟3种不同成熟度下的F1分数值为84%、77%、85%,其识别精度优于比较模型。本文方法实现了在6种复杂环境下有效地番茄果实检测识别,为番茄果实的智能采摘提供理论基础。  相似文献   

17.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

18.
基于改进YOLOX的自然环境中火龙果检测方法   总被引:1,自引:0,他引:1  
自然环境下果实的精准检测是火龙果采摘机器人执行采摘作业的先决条件。为提高自然环境下果实识别的精确性、鲁棒性和检测效率,本研究对YOLOX(You Only Look Once X)网络进行改进,提出了一种含有注意力模块的目标检测方法。为便于在嵌入式设备上部署,本方法以YOLOX-Nano网络为基准,将卷积注意力模块(Convolutional Block Attention Module,CBAM)添加到YOLOX-Nano的主干特征提取网络中,通过为主干网络提取到不同尺度的特征层分配权重系数来学习不同通道间特征的相关性,加强网络深层信息的传递,降低自然环境背景下对火龙果识别的干扰。对该方法进行性能评估和对比试验,经过训练后,该火龙果目标检测网络在测试集的AP0.5值为98.9%,AP0.5:0.95的值为72.4%。在相同试验条件下对比其它YOLO网络模型,该方法平均检测精度分别超越YOLOv3、YOLOv4-Tiny和YOLOv5-S模型26.2%、9.8%和7.9%。最后对不同分辨率的火龙果果园自然环境下采集的视频进行实时测试。试验结果表明,本研究提出的改进YOLOX-Nano目标检测方法,每帧平均检测时间为21.72 ms,F1值为0.99,模型大小仅3.76 MB,检测速度、检测精度和模型大小满足自然环境下火龙果采摘的技术要求。  相似文献   

19.
为提高苹果采摘的自动化与智能化水平,降低重复繁琐的人工劳动强度,减少对果实的损坏率,研制了一款用于苹果成熟自动检测并采摘的轮式机器人系统。系统由硬件平台和软件平台两部分组成。其中,硬件平台由四轮驱动越野小车、IPC-610L工控机、图像数据采集卡、四自由度机械臂和末端执行器组成;软件平台基于Visual C++6.0开发环境,使用双目立体视觉技术和图像处理技术实现对苹果的识别与定位,再通过机械臂的路径规划实现对苹果的采摘。通过仿真实验和数据分析表明:机器人在无人值守的情况下,能实现自动导航、自动识别、自动采摘苹果等功能,并且识别成功率大于94.00%,采摘成功率达到91.33%,平均采摘周期约为1 1 s,具有较高的准确性及稳定性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号