首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
自然场景下苹果目标的精确识别与定位是智慧农业信息感知与获取领域的重要内容。为了解决自然场景下苹果目标识别与定位易受枝叶遮挡的问题,在K-means聚类分割算法的基础上,提出了基于凸壳原理的目标识别算法,并与基于去伪轮廓的目标识别算法和全轮廓拟合目标识别算法作了对比。基于凸壳原理的目标识别算法利用了苹果近似圆形的形状特性,结合K-means算法与最大类间方差算法将果实与背景分离,由凸壳原理得到果实目标的凸壳多边形,对凸壳多边形进行圆拟合,标定出果实位置。为验证算法有效性,对自然场景下的157幅苹果图像进行了测试,基于凸壳原理的目标识别算法、基于去伪轮廓的目标识别方法和全轮廓拟合目标识别方法的重叠率均值分别为83.7%、79.5%和70.3%,假阳性率均值分别为2.9%、1.7%和1.2%,假阴性率均值分别为16.3%、20.5%和29.7%。结果表明,与上面两种对比算法相比较,基于凸壳原理的目标识别算法识别效果更好且无识别错误的情况,该算法可为自然环境下的果实识别与分割问题提供借鉴与参考。  相似文献   

2.
苹果目标的准确识别是苹果机械化采摘需要解决的关键问题之一。为此,基于YUV颜色空间模型,提出了一种结合色差分量与高斯自适应拟合算法的苹果目标分割方法。该方法采用首先将苹果目标由RGB颜色空间转换至YUV颜色空间,并利用色差分量V建立果实与背景分割的高斯分布拟合模型,根据拟合结果自动获取分割阈值,以实现自然场景下苹果目标的准确分割。为了验证文中算法的有效性,利用多幅图像进行了试验并与Otsu自适应阈值分割算法进行了比较。试验结果表明,采用文中算法得到的苹果果实的平均检出率达87.08%,识别率领先Otsu算法9.91%。因此,对于着色度较为均匀的苹果目标,采用高斯自适应拟合方法可以有效提高其识别率。  相似文献   

3.
为实现苹果果径与果形快速准确自动化分级,提出了基于改进型SSD卷积神经网络的苹果定位与分级算法。深度图像与两通道图像融合提高苹果分级效率,即对从顶部获取的苹果RGB图像进行通道分离,并提取分离通道中影响苹果识别精度最大的两个通道与基于ZED双目立体相机从苹果顶部获取的苹果部分深度图像进行融合,在融合图像中计算苹果的纵径相关信息,实现了基于顶部融合图像的多个苹果果形分级和信息输出;使用深度可分离卷积模块替换原SSD网络主干特征提取网络中部分标准卷积,实现了网络的轻量化。经过训练的算法在验证集下的识别召回率、精确率、mAP和F1值分别为93.68%、94.89%、98.37%和94.25%。通过对比分析了4种输入层识别精确率的差异,实验结果表明输入层的图像通道组合为DGB时对苹果的识别与分级mAP最高。在使用相同输入层的情况下,比较原SSD、Faster R-CNN与YOLO v5算法在不同果实数目下对苹果的实际识别定位与分级效果,并以mAP为评估值,实验结果表明改进型SSD在密集苹果的mAP与原SSD相当,比Faster R-CNN高1.33个百分点,比YOLO v5高14.23个百分点...  相似文献   

4.
介绍了K-means聚类算法的工作原理,研究了基于图像处理和K-means聚类算法的目标物体快速识别,设计了一套自动采摘目标图像快速识别算法,可以准确实现对苹果的快速精确识别,未来还可以扩展对其他水果的识别。实验结果表明:当采摘机器人的机械臂移动速度较高,能够准确对目标物体进行快速识别,证明了目标图像快速识别算法性能优良,具有较高的有效性和可行性。  相似文献   

5.
基于随机森林算法的自然光照条件下绿色苹果识别   总被引:6,自引:0,他引:6  
果实识别是自动化采摘系统中的重要环节,能否快速、准确地识别出果实直接影响采摘机器人的实时性和可靠性。为了实现自然光照条件下绿色苹果的识别,本文采集了果实生长期苹果树图像,并利用随机森林算法实现了绿色苹果果实的分类和识别。针对果树背景颜色和纹理特征的复杂性,尤其是绿色果实和叶片在很多特征上的相似性,论文基于RGB颜色空间进行了Otsu阈值分割和滤波处理,去除枝干等背景,得到仅剩果实和叶片的图像。然后,分别提取叶片和苹果的灰度及纹理特征构成训练集合,建立了绿色苹果随机森林识别模型,并使用像素模板验证数据集,对模型进行预测试验,正确率为90%。最后,选择10幅自然光照条件下不同的果树图像作为检测对象,使用该模型进行果实识别并使用霍夫变换绘制果实轮廓,平均识别正确率为88%。结果表明,该方法具有较高的鲁棒性、稳定性、准确性,能够用于自然光照条件下绿色果实的快速识别。  相似文献   

6.
针对密集分布的荔枝花遮挡严重导致检测困难,现有研究方法忽略了非极大抑制过程中密集建议框之间的相互作用的问题,为提升检测精度、降低漏检率,提出了一种基于polyphyletic损失函数的检测方法。该方法在损失函数中包含一个聚合损失项,以迫使建议框接近并紧凑定位相应目标,同时增加专门为密集作物场景设计的边界框排斥损失,使预测框远离周围对象,提高密集荔枝花检测鲁棒性。与Faster R-CNN、Focus Loss、AdaptiveNMS和Mask R-CNN进行对比,实验表明,该方法在标准苹果花数据集上识别精度比其他方法高2个百分点,验证了该方法检测的通用性,同时,该方法在自建荔枝花数据集的平均精度均值达到87.94%,F1值为87.07%,缺失率为13.29%,相比Faster R-CNN、Focus Loss、AdaptiveNMS和Mask R-CNN分别提高20.09、14.10、8.35、4.86个百分点,具有较高检测性能。因此,本文提出的方法能够高效地对密集荔枝花进行检测,为复杂场景下的密集作物检测提供参考。  相似文献   

7.
基于压缩感知理论的苹果病害识别方法   总被引:2,自引:0,他引:2  
为实现自然场景下低分辨率苹果果实病害的智能识别,提出了一种基于压缩感知理论的苹果病害识别方法。以轮纹病、炭疽病和新轮纹病3种常见的苹果果实病害为研究对象,提取病斑的8个纹理特征参数组成训练特征矩阵。利用压缩感知理论,求解待测样本特征向量在特征矩阵上的稀疏表示系数向量,通过对系数向量的分析实现待测样本的分类。设计灰度关联分析和支持向量机识别模型与本文方法进行识别效果对比,平均正确识别率分别为86.67%、90%和90%。实验结果表明,基于压缩感知理论的识别方法能够对苹果病害进行有效识别。  相似文献   

8.
基于激光扫描三维图像的树上苹果识别算法   总被引:1,自引:0,他引:1  
为消除不同光线和复杂背景的影响,提出了一种自动识别树上苹果的算法.使用激光视觉系统获取果树局部的三维图像,参考设定的场景知识对图像背景进行简化;采用基于平滑频率曲线的自动阈值检测方法实现图像的二值化;通过轮廓跟踪技术记录目标边界的走向,据此计算链码和与链码差,并根据两者在果树各部分的变化规律确立相应的准则,以提取苹果的轮廓像素点;利用随机圆环法获得果实的形状特征完成对苹果的识别.实验结果表明,该算法具有较好的实时性,当枝叶遮挡面积小于40%时,果实的正确识别率高于93.75%,且识别效果不受光照条件与果实表面颜色的影响.  相似文献   

9.
基于自适应半径滤波的农业导航激光点云去噪方法研究   总被引:1,自引:0,他引:1  
毕松  王宇豪 《农业机械学报》2021,52(11):234-243
针对点云数据去噪操作易损失点云细节信息问题,提出了动态半径滤波器,该方法可在保留场景细节信息的同时获得良好去噪效果。此外,提出基于深度卷积神经网络的种植模式判定器,该方法可实时识别当前种植模式,并读取相应的去噪参数。在苹果种植园、白杨树林和旱柳树林完成去噪试验,试验结果表明,本文方法能去除多尺度点云噪声,有效抑制稀疏离群点、目标周围的逸出值和密集噪声,单帧点云(6400点)去噪平均耗时为43.2ms。经自适应半径滤波去噪后,密度聚类的平均精确率为94.3%,平均召回率为78.9%,与原始数据相比,分别提升了40.4%、33.9%。自适应半径滤波具有较高的实时性、通用性和鲁棒性,能较明显地提升聚类效果,为点云后续处理奠定良好基础。  相似文献   

10.
黄明辉  程忠 《南方农机》2023,(16):135-138
【目的】在算力资源有限的嵌入式设备上对目标苹果进行快速、准确的识别与定位。【方法】研究小组对采摘机器人的目标识别与定位方法进行研究,以YOLOv4网络模型为基础,对YOLOv4进行轻量化改进,使用MobileNet V3作为特征提取的主干网络,减少模型的计算量,并结合ZED双目相机与定位算法在嵌入式平台上进行实验。【结果】实验表明:1)在目标识别方面,改进后模型的平均检测精度为87.32%,模型的大小为53.76 MB,较改进前降低了79%。2)采用ZED相机结合测距算法进行了苹果目标定位实验,ZED双目相机的测距误差可控制在0.02 m以内,同时改进的YOLOv4算法的平均检测速度在15FPS左右。【结论】改进后的YOLOv4网络模型更适合部署在算力有限的嵌入式设备中进行苹果采摘任务,且能够满足苹果采摘任务的实时性要求。因此,该方法可以为苹果采摘机器人的识别与定位提供技术参考。  相似文献   

11.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

12.
基于改进YOLOv5m的采摘机器人苹果采摘方式实时识别   总被引:1,自引:0,他引:1  
为准确识别果树上的不同苹果目标,并区分不同枝干遮挡情形下的果实,从而为机械手主动调整位姿以避开枝干对苹果的遮挡进行果实采摘提供视觉引导,提出了一种基于改进YOLOv5m面向采摘机器人的苹果采摘方式实时识别方法。首先,改进设计了BottleneckCSP-B特征提取模块并替换原YOLOv5m骨干网络中的BottleneckCSP模块,实现了原模块对图像深层特征提取能力的增强与骨干网络的轻量化改进;然后,将SE模块嵌入到所改进设计的骨干网络中,以更好地提取不同苹果目标的特征;进而改进了原YOLOv5m架构中输入中等尺寸目标检测层的特征图的跨接融合方式,提升了果实的识别精度;最后,改进了网络的初始锚框尺寸,避免了对图像里较远种植行苹果的识别。结果表明,所提出的改进模型可实现对图像中可直接采摘、迂回采摘(苹果上、下、左、右侧采摘)和不可采摘果实的识别,识别召回率、准确率、mAP和F1值分别为85.9%、81.0%、80.7%和83.4%。单幅图像的平均识别时间为0.025s。对比了所提出的改进算法与原YOLOv5m、YOLOv3和EfficientDet-D0算法在测试集上对6类苹果采摘方式的识别效果,结果表明,所提出的算法比其他3种算法识别的mAP分别高出了5.4、22、20.6个百分点。改进模型的体积为原始YOLOv5m模型体积的89.59%。该方法可为机器人的采摘手主动避开枝干对果实的遮挡,以不同位姿采摘苹果提供技术支撑,可降低苹果的采摘损失。  相似文献   

13.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

14.
基于改进YOLO v3的自然场景下冬枣果实识别方法   总被引:4,自引:0,他引:4  
为实现自然场景下冬枣果实的快速、精准识别,考虑到光线变化、枝叶遮挡、果实密集重叠等复杂因素,基于YOLO v3深度卷积神经网络提出了一种基于改进YOLO v3(YOLO v3-SE)的冬枣果实识别方法。YOLO v3-SE模型利用SE Net 的SE Block结构将特征层的特征权重校准为特征权值,强化了有效特征,弱化了低效或无效特征,提高了特征图的表现能力,从而提高了模型识别精度。YOLO v3-SE模型经过训练和比较,选取0.55作为置信度最优阈值用于冬枣果实检测,检测结果准确率P为88.71%、召回率R为83.80%、综合评价指标F为86.19%、平均检测精度为82.01%,与YOLO v3模型相比,F提升了2.38个百分点,mAP提升了4.78个百分点,检测速度无明显差异。为检验改进模型在冬枣园自然场景下的适应性,在光线不足、密集遮挡和冬枣不同成熟期的情况下对冬枣果实图像进行检测,并与YOLO v3模型的检测效果进行对比,结果表明,本文模型召回率提升了2.43~5.08个百分点,F提升了1.75~2.77个百分点,mAP提升了2.38~4.81个百分点,从而验证了本文模型的有效性。  相似文献   

15.
为实现褐菇高效、精准、快速的自动化采摘,针对工厂化褐菇的种植特点,提出一种基于YOLO v5迁移学习(YOLO v5-TL)结合褐菇三维边缘信息直径动态估测法的褐菇原位识别-测量-定位一体化方法。首先,基于YOLO v5-TL算法实现复杂菌丝背景下的褐菇快速识别;再针对锚框区域褐菇图像进行图像增强、去噪、自适应二值化、形态学处理、轮廓拟合进行褐菇边缘定位,并提取边缘点和褐菇中心点的像素坐标;最后基于褐菇三维边缘信息的直径动态估测法实现褐菇尺寸的精确测量和中心点定位。试验结果表明单帧图像平均处理时间为50ms,光照强度低、中、高情况下采摘对象识别平均成功率为91.67%,其中高光强时识别率达100%,菇盖的尺寸测量平均精度为97.28%。研究表明,本文提出的YOLO v5-TL结合褐菇三维边缘信息直径动态估测法可实现工厂化种植环境下褐菇识别、测量、定位一体化,满足机器人褐菇自动化采摘需求。  相似文献   

16.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   

17.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

18.
针对我国油茶果采摘过程中存在的自动化水平落后、采摘效率低、适采周期短的现状,应用于机器人收获技术的机器视觉技术受限于真实场景中复杂背景干扰从而导致识别精度较低的问题。以自然场景下的油茶果为研究对象,提出一种基于Mask-RCNN的自然场景下油茶果目标识别与检测算法,首先获取油茶果图像并建立数据集,利用ResNet卷积神经网络提取油茶果果实图片的特征,获得果实目标分割结果,再采用RPN对所得到的特征图进行操作,并增加全连接层,提取每个样本mask像素面积,并对目标类别进行预测。利用测试集分别测试油茶果的分割网络模型及目标识别算法,结果表明,网络模型的分割准确率为89.85%,油茶果目标识别的平均检测精度为89.42%,召回率为92.86%。本算法能够自动检测油茶果目标,并有效降低不同光照情况下叶片与花苞遮挡、果实重叠、果实色泽等因素干扰,为自然场景中果实自动化采摘提供可靠的视觉支持。  相似文献   

19.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

20.
花椒树产果量大,枝干纵横交错,树叶茂密,给花椒的自动化采摘带来了困难。因此,本文设计一种基于改进YOLO v5的复杂环境下花椒簇的快速识别与定位方法。通过在主干提取网络CSPDarknet的CSPLayer层和Neck的上采样之后增加高效通道注意力ECA(Efficient channel attention)来简化CSPLayer层的计算量,提升了特征提取能力。同时在下采样层增加协同注意力机制CA(Coordinate attention),减少下采样过程中信息的损失,强化特征空间信息,配合热力图(Grad-CAM)和点云深度图,来完成花椒簇的空间定位。测试结果表明,与原YOLO v5相比较,改进的网络将残差计算减少至1次,保证了模型轻量化,提升了效率。同帧数区间下,改进后的网络精度为96.27%,对比3个同类特征提取网络YOLO v5、YOLO v5-tiny、Faster R-CNN,改进后网络精确度P分别提升5.37、3.35、15.37个百分点,连株花椒簇的分离识别能力也有较大提升。实验结果表明,自然环境下系统平均识别率为81.60%、漏检率为18.39%,能够满足花椒簇识别...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号