首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 250 毫秒
1.
针对苹果园害虫识别过程中的粘连问题,提出了一种基于形色筛选的害虫粘连图像分割方法。首先,采集苹果园害虫图像,聚焦于羽化害虫。害虫在羽化过程中已完成大部分生长发育,其外部形态、颜色、纹理更为稳定显著。因此,基于不同种类害虫的形色特征信息分析,来获取害虫HSV分割阈值和模板轮廓。其次,利用形状因子判定分割粘连区域,通过颜色分割法和轮廓定位分割法来实现非种间与种间粘连害虫的分割。最后,对采集的苹果园害虫图像进行了试验分析,采用基于形色筛选的分割法对单个害虫进行分割,结果表明,本文方法的平均分割率、平均分割错误率和平均分割有效率分别为101%、3.14%和96.86%,分割效果优于传统图像分割方法。此外,通过预定义的颜色阈值,本文方法实现了棉铃虫、桃蛀螟与玉米螟的精准分类,平均分类准确率分别为97.77%、96.75%与96.83%。同时,以Mask R-CNN模型作为识别模型,平均识别精度作为评价指标,分别对已用本文方法和未用本文方法分割的害虫图像进行识别试验。结果表明,已用本文方法分割的棉铃虫、桃蛀螟和玉米螟害虫图像平均识别精度分别为96.55%、94.80%与95.51%,平均识别精度分别提高16.42、16.59、16.46个百分点。这表明该方法可为果园害虫精准识别提供理论和方法基础。  相似文献   

2.
为提高水稻种子质量,剔除杂草稻种子,提出一种基于凹点匹配的粘连分割算法,搭建一种在线形色双选水稻种子识别平台。该平台由排种系统、图像采集系统、传动系统、电机驱动系统构成。该平台算法基于ECMM凹点分割法,首先对采集的图像进行预处理、提取形态因子小于0.4的粘连轮廓,对所提取轮廓的边缘进行一维高斯卷积核平滑处理,并计算平滑后轮廓曲线的曲率及其曲率均值,寻找与曲率均值相差较大的若干个点作为角点。其次,依据矢量三角形面积的正负来判断角点是否为真正的凹点,寻找凹点与前继点、后继点所组成的法线方向的夹角范围(0°~180°),并在此夹角范围内寻找与其相匹配的凹点对,完成粘连分割。该算法平均精度为92.90%,比极限腐蚀法提高19.82个百分点,比分水岭算法提高12.85个百分点。最后,计算分割后图像上各轮廓内的种子长度与R通道像素占比来识别杂草稻种子。经识别平台测试,本文算法每识别100粒种子平均用时0.95s,平均识别精度为97.50%。  相似文献   

3.
羊胴体自动化分割对于提高羊屠宰加工企业生产效率有重要意义。为实现将羊胴体点云精准高效地分割为多分体,研究了一种基于表面凹凸性的羊胴体点云分割方法。以倒挂状态下的巴美肉羊胴体为研究对象,利用三维激光扫描仪获取羊胴体点云。首先,对羊胴体点云进行预处理,去除离群点噪声和采用体素滤波的方法进行下采样;并将羊胴体点云超体素化,以获取超体素邻接图;然后,对超体素邻接图中相邻点云的公共边进行凹凸性判断,将凹边凸边赋予不同权重;并由得分评估函数计算不同权重点云的得分,将结果与参数Smin作比较;最后,根据比较结果确定分割区域,完成对羊胴体点云的分割。试验结果表明:羊胴体点云分割的平均精确度、平均召回率、平均F1值和平均总体准确率分别为92.3%、91.3%、91.8%、92.1%。各分体的平均分割精确度分别为92.7%、90.7%、92.6%、93.2%、92.5%、92.2%,各分体的平均分割召回率分别为86.0%、93.2%、92.8%、91.6%、90.9%、93.4%,处理单只羊胴体点云的平均时长为18.82 s。通过处理多分体组合点云以及多体型羊胴体点云判断本文方法的适...  相似文献   

4.
针对叶片卷曲度和厚度交互式测量方式费时、费力、误差大,传统图像处理算法普适性不高等问题,以无芒隐子草叶片为研究对象,采用基于Graham 算法的最小外接矩形法实现叶片卷曲度的测量,采用矢量积法和角点检测相结合的凹凸点检测算法实现叶片厚度的测量。首先,通过石蜡制片获取无芒隐子草叶切片,利用显微镜连接计算机获取切片图像;然后,采用红色灰度化方法结合阈值分割将切片图像的目标和背景分离;最后,根据叶片卷曲度和厚度的实际测量方式,采用Graham算法通过求取目标区域的最小外接矩形实现叶片卷曲度的测量,将矢量积法和角点检测相结合检测目标区域的凹凸点,通过凹点与凹点、凸点与凸点匹配实现叶片厚度的测量。选取30幅无芒隐子草叶切片图像为样本进行了试验,结果显示,采用本文提出的红色灰度化方法和分量法、最大值法、平均法、加权平均法对图像进行灰度化处理后,图像信息熵分别为6.4280、6.3612、5.6679、5.9348、6.0526,图像平均梯度分别为0.0785、0.0242、0.0158、0.0093、0.0104,图像对比度分别为0.2641、0.1130、0.0574、0.0703、0.0784,说明本文方法能更好地保持图像的边缘、细节等信息,图像清晰度更高。进行自动阈值分割后,分割的平均误检率为0.75%,平均漏检率为3.49%,平均整体分割精度达到98.14%。在有效分割目标和背景的基础上,对叶片卷曲度和厚度进行测量,并与交互式测量结果进行相比,结果表明,采用本文方法对叶片卷曲度和厚度的测量值与交互式测量值的平均相对误差分别为0.96%和3.69%,测量速度分别提高了约10倍和37倍。  相似文献   

5.
扰动柑橘采摘的实时识别与采摘点确定技术   总被引:9,自引:0,他引:9  
对成熟柑橘果实在扰动状态下的视觉识别定位技术进行研究。利用ANSYS进行了扰动柑橘的动力学分析,结合图像处理分析结果,确定了微扰动柑橘的运动规律为类单摆运动;对采集的微扰动柑橘视频进行图像处理,设定规则选取视频中的图像,利用改进的K-means聚类分割法结合优化Hough圆拟合方法实现柑橘果实的分割;根据图像分割结果,对柑橘的二值图像进行Hough直线拟合,结合直线斜率在-0.45~0.45的约束条件,确定扰动柑橘的有效采摘点。试验结果表明该方法能有效地识别自然环境中的微扰动柑橘,确定扰动果实采摘点的准确率达85%,采摘点确定的处理时间在7.58~9.24 s范围内。  相似文献   

6.
黄瓜蚜虫的图像识别与计数方法   总被引:4,自引:0,他引:4  
通过分析蚜虫区域、绿色背景和蚜叶区的G分量特点,建立G分量阈值确定原则,并采用G分量阈值将蚜虫区域和非蚜虫区域分离开。针对蚜虫的粘连重叠问题,利用扩展极小值阈值变换的方法对输入图像进行标记,对标记后的图像进行距离变换和分水岭分割,以去除粘连。试验结果表明:算法能有效地分割粘连重叠的蚜虫,过分割率与欠分割率之和为3.14%。计数准确率达到96.2%,高于直接计数的  相似文献   

7.
玉米果穗粘连籽粒图像分割方法   总被引:6,自引:0,他引:6  
为了对基于图像的玉米果穗穗粒数进行更精确的计算,给出了一种新的粘连籽粒图像分割方法。对粘连二值图像进行轮廓平滑和欧氏距离变换,将粘连籽粒的距离变换图视为地形学上的地形图,以地形图中的山谷线作为粘连二值图像的分割线。将欧氏距离变换图像的边界像素点视作水源点,根据山谷形态两边高、中间低的地形趋势设定水流的行进规则,使得水流在遇到山坡时自动绕行,但在遇到谷口点时可沿山谷线流动,从而将粘连籽粒分割开。该方法对单个未粘连籽粒不产生影响,不必在分割操作前依靠人工设定阈值进行籽粒是否粘连的判断,可以作为籽粒是否存在粘连的判断方法。用该方法对442个含不同粘连情况的籽粒连通分量进行判断与分割测试,粘连判断准确率为99.7%,粘连籽粒的分割准确率为94.9%。  相似文献   

8.
基于图像处理技术的大田麦穗计数   总被引:13,自引:0,他引:13  
为了实现不同播种方式下单位面积小麦穗数的智能计算,设计了一种利用图像分析技术实现大田麦穗快速计数的方法,分析了利用颜色特征和纹理特征分割麦穗的优缺点和粘连区域麦穗个数的计算方法。通过对撒播和条播各35幅样本图像进行计数实验,准确率分别为95.77%和96.89%。结果表明,利用颜色特征和纹理特征均可提取大田环境下麦穗图像,其中利用颜色特征提取速度快。麦穗骨架角点个数能够反映粘连区域麦穗个数,在条播和撒播小麦田中计数准确率均较高。  相似文献   

9.
基于深度学习的群猪图像实例分割方法   总被引:9,自引:0,他引:9  
群养饲喂模式下猪群有聚集在一起的习性,特别是躺卧时,当使用机器视觉跟踪监测猪只时,图像中存在猪体粘连,导致分割困难,成为实现群猪视觉追踪和监测的瓶颈。根据实例分割原理,把猪群中的猪只看作一个实例,在深度卷积神经网络基础上建立Pig Net网络,对群猪图像尤其是对粘连猪体进行实例分割,实现独立猪体的分辨和定位。Pig Net网络采用44层卷积层作为主干网络,经区域候选网络(Region proposal networks,RPN)提取感兴趣区域(ROI),并和主干网络前向传播的特征图共享给感兴趣区域对齐层(Region of interest align,ROIAlign),分支通过双线性插值计算目标空间,三分支并行输出ROI目标的类别、回归框和掩模。Mask分支采用平均二值交叉熵损失函数计算独立猪体的目标掩模损失。连续28 d采集6头9. 6 kg左右大白仔猪图像,抽取前7 d内各不同时段、不同行为模式群养猪图像2 500幅作为训练集和验证集,训练集和验证集的比例为4∶1。结果表明,Pig Net网络模型在训练集上总分割准确率达86. 15%,在验证集上准确率达85. 40%。本文算法对不同形态、粘连严重的群猪图像能够准确分割出独立的猪个体目标。将本文算法与Mask R-CNN模型及其改进模型进行对比,准确率比Mask RCNN模型高11. 40个百分点,单幅图像处理时间为2. 12 s,比Mask R-CNN模型短30 ms。  相似文献   

10.
为提高田间复杂环境下传统图像分割法分割葡萄果穗图像准确度低的问题,提出一种基于改进红绿色差和Otsu算法的田间葡萄果穗图像分割方法。选取与人类视觉相近的RGB颜色空间,提取并分析R、G特征图的直方图,经分析对其点乘特征图并进行Otsu运算,再经过形态学处理,实现对田间环境下葡萄果穗图像的分割。与灰度图、(R-G)特征图和(R-G)/(R+G)特征图分别采用最大阈值分割法(Otsu)分割的结果进行对比,试验结果表明,红绿色差点乘Otsu分割法的分割结果最优,准确率为92.37%,F1值90.13%。对50幅图像做了测试,其中图像准确率最高为97%,准确率最低为79%,其平均准确率为88.75%。所提出的方法能够实现葡萄果穗较完整的分割,并可为葡萄果穗的识别、定位提供研究基础。  相似文献   

11.
生猪的体尺参数是生猪生长状态的重要评判标准,而人工测量体尺耗时耗力且容易造成猪只的应激反应,本文研究了无接触式猪只体尺参数测量方法,借鉴人工测量经验法,提出基于点云语义分割的猪只体尺测量方法。本文以大约克夏猪为研究对象,搭建无接触式猪只点云采集平台,采集3 510组猪只双侧点云数据;利用直通滤波器与随机采样一致性分割处理方法去除背景点云,基于统计滤波器去除离群点,采用体素下采样方法稀疏点云,完成猪只点云的预处理;基于PointNet网络,结合注意力模块构建语义分割模型,针对不同分割部位设计猪只体尺测量方法。试验结果表明,在自制数据集上,改进的语义分割模型准确率为86.3%,相较于PointNet、PointNet++和3D-RCNN分别高8、5.7、2.6个百分点;体尺的测量值与实测值最大绝对误差为6.8 cm,平均绝对误差均在5 cm以内,具有较高的估算准确性,此方法能够用于猪只体尺测量。本文将语义分割与体尺测量相结合,可为后续非接触测量提供思路。  相似文献   

12.
养殖场中肉牛较为活跃,采集得到的图像数据中肉牛姿态多变,肉牛姿态端正帧较少,导致自动测量肉牛体尺困难。针对以上问题,本研究通过分析肉牛骨架特征和肉牛图像边缘轮廓特征,提出一种多姿态肉牛体尺自动测量方法。首先,利用深度相机Azure Kinect DK从正上方采集肉牛俯视深度视频数据,对视频数据进行分帧处理;其次,对原始深度图像进行预处理,将肉牛从复杂的背景中提取出来;再次,利用Zhang-Suen算法提取目标图像肉牛骨架,检测骨架交点和端点,分析肉牛头部特征,并确定头部去除点,去除图像中肉牛头部信息;最后,利用改进的U弦长曲率算法提取肉牛轮廓曲率曲线,根据曲率值确定体尺测点,将体尺测点转换到三维空间中,计算体尺参数。本研究通过分析大量深度图像数据,将图像中肉牛姿态分为左歪、右歪、姿态端正、低头和抬头五类。试验结果表明,本研究提出的基于骨架的多姿态肉牛头部去除方法在5种姿态下的头部去除成功率均高于92%;在23头肉牛不同姿态共46帧深度图像中,利用基于改进U弦长曲率的体尺测点提取方法,测得体直长测量的平均绝对误差为2.73 cm,体高测量的平均绝对误差为2.07 cm,腹宽测量的平均绝对误差为1.47 cm。研究结果可为精确测量多姿态下肉牛体尺提供支撑。  相似文献   

13.
针对果园管理数字化程度低、构建方法较为单一等问题,本研究提出了一种基于激光点云的三维虚拟果园构建方法。首先采用手持式三维点云采集设备(3D-BOX)结合即时定位与地图构建-激光测距与测绘(Simultaneous Localization and Mapping-Lidar Odometry and Mapping,SLAM-LOAM)算法获取果园点云数据集;然后通过统计滤波算法完成点云数据离群点与噪声点的去除,并结合布料模拟算法(Cloth Simulation Filtering,CSF)与DBSCAN(Density-Based Spatial Clustering of Applications with Noise)聚类算法,实现地面去除与果树聚类分割,进而使用VoxelGrid滤波器降采样;最后利用Unity3D引擎,构建虚拟果园漫游场景,将作业机械的实时GPS(Global Positioning System)数据从WGS-84坐标系转换为高斯投影平面坐标系,并通过LineRenderer显示实时轨迹,实现作业机械运动轨迹控制与作业轨迹的可视化展示。为验证虚拟果园构建方法的有效性,在海棠果园与芒果园开展果园构建方法测试。结果表明,所提出的点云数据处理方法对海棠果树与芒果树聚类分割的准确率分别达到了95.3%与98.2%;通过与实际芒果园的果树行距、株距对比,虚拟芒果园的平均行间误差约为3.5%,平均株间误差约为6.6%。并且将Unity3D构建出的虚拟果园与实际果园相比,该方法能够有效复现果园三维实际情况,得到了较好的可视化效果,为果园的数字化建模与管理提供了一种技术方案。  相似文献   

14.
主要研究实现了两种车身测量点云数据逆向建模过程中点云分割的算法——基于平面度的直接分割方法和基于对数法矢值的曲面分割方法。前者通过最小二乘拟合平面法矢量夹角的均方差值来搜索具有几何相似特性的连续曲面片。后者以起始点法矢量与其二阶邻域点的法矢量差的模为特征求解一对数值作为数据点的分割特征。最后结合车身曲面点云数据,给出不同的实例说明两种方法在车身逆向建模中针对不同特性曲面的分割有效性。  相似文献   

15.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号