首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
基于RGB-D相机的玉米茎粗测量方法   总被引:1,自引:1,他引:0  
为实现田间玉米茎粗的快速测量,提出了一种基于RGB-D(RGB-Depth)相机的玉米茎粗参数提取方法。以小喇叭口期玉米为观测对象,利用RGB-D相机获取田间玉米的彩色图像和深度图像。首先,根据玉米与背景的颜色差异,对图像进行自动阈值分割,提取图像中感兴趣区域内的信息;利用形态学"开"操作剔除图像中的噪声,得到玉米茎杆的主干。其次,对茎杆主干进行骨架化操作,检测骨架的交叉点和末端点,确定茎杆的待测量部位。然后,对该部位的点云数据进行去噪、聚类、椭圆拟合操作,得到椭圆的长轴和短轴,获得玉米的茎粗。对20株玉米进行测试,结果表明:茎粗长轴的平均测量误差为3.31 mm,标准差为3.01 mm,平均测量相对误差为10.27%,茎粗短轴的平均测量误差为3.33 mm,标准差为2.39 mm,平均测量相对误差为12.71%。该研究可为作物表型参数的快速获取提供参考。  相似文献   

2.
基于K-means聚类和椭圆拟合方法的白粉虱计数算法   总被引:4,自引:4,他引:0  
为了能够对害虫的准确计数,该文以白粉虱为例,提出了一种基于K-means聚类和椭圆拟合方法的白粉虱计数算法。该方法首先利用K-means聚类算法对白粉虱图像进行分割,使白粉虱从背景图像中分离,然后利用基于最小二乘法的椭圆拟合方法对分割结果进行椭圆拟合,统计椭圆的个数,提取椭圆中心点的颜色特征值,将其作为新的分类中心,重新对白粉虱图像进行分割和椭圆个数的统计,最后将算法收敛时的椭圆个数作为当前白粉虱的个数。对辣椒、黄瓜、番茄和茄子4种作物叶片上附着的白粉虱进行了计数试验,该算法在这4种作物上的平均计数错误率依次为2.80%,8.51%,5.00%,1.56%,并且分别比阈值化方法和K-means聚类方法的平均计数错误率降低了11.65%和70.18%。试验结果表明:所提方法能够实现对不同作物上白粉虱的准确计数,且算法具有很好的泛化性。该研究结果可为虫害的检测以及采取正确的防治措施提供重要依据。  相似文献   

3.
研究水分胁迫下的根系特征对于节水农业的发展具有重大意义。针对现有根系观测与土壤水分监测方法难以满足野外条件下根系和根区水分的同步、原位、高通量监测的不足,该研究研制了一种基于STM32 芯片的管道机器人系统。系统由管道机器人、数据基站与PVC透明管道组成,通过在土壤中埋设管道机器人系统,控制机器人搭载的微距相机与土壤水分传感器在巡航时拍摄根系图像,并获取土壤水分数据。由根系图像识别分割与提取程序对图像进行畸变校正与根系识别,获取管道方向上植株的根系面积、长度与密度等特征参数。实验室条件下进行相机拍摄效果、图像畸变校正、识别与分割误差及里程轮测距误差测试,以及土壤水分传感器标定试验。测试结果表明:1)管道机器人能够清晰地拍摄到根系图像,图像畸变校正效果较好,单个像素点长度和面积分别为44 μm和0.002 mm2,单张根系图像的拍摄范围为14.17 mm×10.60 mm;2)土壤水分传感器输出电压与土壤体积含水率之间呈现良好线性关系,决定系数R2为0.990;3)自主巡航定位准确度较高,平均相对误差为1.47%。在田间条件下进行的根系生长动态监测、根系信息提取、土壤水分监测与电池续航试验表明:1)管道机器人系统能够在田间环境下高通量地拍摄根系图像,监测根系的生长动态,并进一步提取出根系长度、面积、根面积密度等特征参数;2)根区土壤水分监测较为准确,测量结果与烘干法结果平均相对误差为2.23%;3)在系统初始满电量状态下,管道机器人系统独立运行时长不少于7 d,最大巡航监测距离约为48 m。本文研制的管道机器人系统可在田间条件下实现根系特征以及根区土壤水分的原位、高通量测量,为节水灌溉与根系生长研究提供技术支持。  相似文献   

4.
基于典型叶片模板自动匹配的虫损叶面积测量   总被引:1,自引:0,他引:1  
为了定量化评估农作物的虫害程度,提出了一种基于典型叶片模板自动匹配的叶片虫损面积测量新方法。先将叶片图像二值化并提取其外轮廓;再对提取的轮廓进行多边形近似,以多边形的顶点为端点将叶片外轮廓划分成若干子轮廓;然后采用形状上下文对完整叶片与虫损叶片之间的子轮廓进行自动配准,找出其间的相互映射关系;最后根据映射关系对虫损叶片进行重建,计算出虫损面积。对10类不同叶片的测量分析表明:该方法平均每叶片耗时0.962 s,最大相对误差为8.22%,平均相对误差为4.78%。其中,形状复杂度高的叶片平均相对误差为7.48%,复杂度中等的叶片为5.99%,复杂度低的叶片为1.84%。结果表明,该方法能准确而快速地测量虫损叶面积。  相似文献   

5.
改进YOLOv5测量田间小麦单位面积穗数   总被引:2,自引:2,他引:0  
单位面积穗数是决定小麦产量的主要因素之一。针对人工清点小麦穗数的方法容易受主观因素影响、效率低和图像处理方法鲜有进行系统部署等问题,提出一种注意力模块(Convolutional Block Attention Module,CBAM)与YOLOv5相结合的CBAM-YOLOv5网络结构,通过对特征图进行自适应特征细化,实现更准确的单位面积穗数测量。该研究以本地采集小麦图像数据和网络公开小麦图像数据为数据集,设置输入图像分辨率为1 280,得到CBAM-YOLOv5模型,可以达到0.904的F1分数和0.902的平均精度,测试集计数的平均相对误差为2.56%,平均每幅图像耗时0.045 s,综合对比,CBAM-YOLOv5模型具有显著优势。模型放置于服务器,结合手机端软件和辅助装置,形成单位面积穗数测量系统,实现育种小区麦穗图像实时采集、处理和计数,计数的平均相对误差为2.80%,抗环境干扰性强。该研究方法与装置可以实现田间小麦单位面积穗数的实时在线检测,降低主观误差,具有较高的准确率及较强的鲁棒性,为小麦单位面积穗数快速、准确估测提供一种新的技术和装备支撑。  相似文献   

6.
基于机器视觉的猪体质量估测模型比较与优化   总被引:1,自引:7,他引:1  
基于机器视觉的猪体质量估测模型较多,但模型缺乏在实用性、准确性的对比,最佳模型没有定论。该文总结了已有的估测算法,基于79组背部图像面积、实际面积、体长、体宽、体高、臀宽、臀高数据,使用线性回归、幂回归、二次回归、主成分线性回归、RBF(radial basis function,径向基函数)神经网络等方法,重建了13种体质量估测模型,并比较了13种模型的估测精度。结果表明,基于体长、体宽、体高、臀宽和臀高的线性回归模型具有较好的估测精度,估测值与真值的相关系数达到了0.996。利用主成分法去掉体尺的共线性,利用曲线回归解决残差不均匀问题,更加符合猪体质量增长趋势,结果表明基于主成分的幂回归模型具有较高的相关系数和较低的标准估计误差,对于97组数据的估测平均相对误差为2.02%。使用猪场实测24组数据验证模型,估测质量与测量值相关系数为0.97,估测平均相对误差为2.26%,标准差为1.78%,优于基于面积和面积体高结合的估测模型,平均绝对误差为2.08 kg,优于面积体高结合方法的平均绝对误差。试验证明使用多个体尺的主成分幂回归体质量估测模型较为精确,可用于机器视觉估测猪体质量的应用中。  相似文献   

7.
日光温室热工缺陷面积热红外图像测量方法   总被引:1,自引:1,他引:0  
隔热层和气密性缺陷是日光温室保温蓄热性能差的重要因素,为了快速检测日光温室热工缺陷区域及测量该区域的面积,该文借助热红外成像仪和Lab VIEW软件平台,构建了基于热红外图像的日光温室热工区域面积测量方法。以陕西杨凌西北农林科技大学园艺场日光温室北墙风口为测试对象,通过现场实测数据与理论计算结果进行比较分析。首先,利用热红外成像仪实时检测出日光温室北墙通风口表面与墙体内表面存在的明显温度差异,其最大温差高达8.4℃。基于温度差异,能快速找出温室内围护结构不同位置所存在的明显散热区域。然后通过直方图法、均方根法和人工提取法分别计算了散热区域面积,其中直方图面积测量方法具有较好的效果,平均相对误差为5.4%;人工提取法次之,平均相对误差为6.0%,均方根法最大,平均相对误差为11.8%。研究结果表明,基于热红外图像的直方图面积测量方法能快速检测出热工缺陷区域的面积,为进一步自动定量分析整个日光温室热工缺陷区域的面积及散热量提供了理论方法,在温室围护结构热工损耗计算方面具有较大地应用潜力,可为农民和企业提出日光温室优化改造建议。  相似文献   

8.
自动测量胸径和树高便携设备的研制与测量精度分析   总被引:3,自引:3,他引:3  
胸径和树高测量是评价立地质量和林木生长状况的重要依据,该文以图像自动识别原理、摄影测量原理、相似三角形几何原理和三角函数原理为理论基础,研制了可测量胸径和树高的多功能便携式微型超站仪,该设备集成电荷藕合器件图像传感器、倾角传感器、激光测距传感器、中央处理器、存储器、液晶显示屏,测量时可获取测站点到待测点的倾角和距离2个参数值,并记录存储测量时的图像信息,通过仪器的嵌入式操作程序,实现胸径的自动测量、树高测量、任意处直径自动测量、基本测量等4项基本功能。通过试验验证,215株立木的单次胸径测量的平均绝对误差为0.369 cm,平均相对误差为2.08%。101株立木的单次树高测量的平均相对误差为1.44%。胸径测量精度达到97.92%,树高测量精度达到98.56%,符合国家森林资源连续清查中的测量精度要求。该设备为森林资源调查提供了参考。  相似文献   

9.
为快速测量红枣的体积和表面积,给红枣三维信息的分级装备开发提供依据。该文搭建图像采集装置,由工业相机连续拍摄旋转圆盘上物体的二维图像,编写图像处理软件提取图像的二维轮廓特征,再由二维图像的轮廓构建三维多轮廓模型,测量模型的体积和表面积。探讨不同轮廓间角(4°~15°),不同投影高度(0.1~0.5cm)和不同直径(24~42 mm)对多轮廓模型测量体积和表面积的影响。试验结果表明,多轮廓球体模型的直径为固定值,体积的相对误差随轮廓间角和投影高度的增大而增大,表面积的相对误差随轮廓间角和投影高度的增大而减小,最小相对误差分别为6.0%和1.0%;多轮廓球体模型的轮廓间角和投影高度为确定值,模型的体积和表面积的相对误差随直径的变化不明显,但直径越小误差越大,体积和表面积相对误差的均值分别为9.1%和4.34%;多轮廓红枣模型的轮廓间角和投影高度为确定值,模型体积的平均相对误差随等级的增大而增大,表面积随等级变化不明显,其中体积的均方根误差和平均相对误差的均值为2.45 cm3和10.2%;表面积的均方根误差和平均相对误差的均值为3.65 cm2和7.09%。红枣多轮廓模型测量方法为红枣分级装备的开发提供技术参考。  相似文献   

10.
基于激光成像技术的农药雾滴飘移评价方法研究   总被引:2,自引:2,他引:0  
为开发在风洞中农药喷雾飘移的测量方法,该文按照国际标准ISO22856,使用德国Lechler公司的LU120-01喷头在风洞中测量了有机硅、植物油等11种助剂在水平和垂直方向上的喷雾飘移,同时采用激光成像技术,结合计算机图像快速批处理,提取了雾滴云图片横纵方向的最大值及位置、重心坐标、平均值等图像特征参数,与测量结果计算得出的喷雾飘移的飘移率、特征高度、飘移潜力指数(drift potential index, DIX)进行拟合。结果表明,横纵方向的最大值及位置、重心坐标、平均值与垂直和水平飘移显著相关(Sig. F0.05),与飘移率、特征高度、飘移潜力指数拟合的相关系数均大于0.91,最大绝对值平均相对误差仅为5.9%;垂直特征高度和水平特征距离拟合结果最好,平均相对误差为0,绝对值平均相对误差为0.6%和1.5%,其次为DIX指数和飘移率。由此表明,此方法可准确的用于评价雾滴的飘移性,测试速度比传统的测量方法更加快速,测试重复性高且无需耗材,DIX指数综合准确性高达96%,大大降低了喷雾飘移的测试成本。该研究可为风洞中的飘移测试提供一种新的测试选择。  相似文献   

11.
基于立体视觉的动态鱼体尺寸测量   总被引:7,自引:7,他引:0  
获取渔业养殖鱼类生长态势的人工测量方法费时费力,且影响鱼的正常生长。为了实现水下鱼体信息动态感知和快速无损检测,该研究提出立体视觉下动态鱼体尺寸测量方法。通过双目立体视觉技术获取三维信息,再通过Mask-RCNN(Mask Region Convolution Neural Network)网络进行鱼体检测与精细分割,最后生成鱼表面的三维点云数据,计算得到自由活动下多条鱼的外形尺寸。试验结果表明,长度和宽度的平均相对误差分别在5%和9%左右。该研究满足了水产养殖环境下进行可视化管理、无接触测量鱼体尺寸的需要,可以为养殖过程中分级饲养和合理投饵提供参考依据。  相似文献   

12.
利用目标检测获取水下鱼类图像中的生物信息,对于实现水产养殖信息化、智能化有重要意义。受到成像设备与水下拍摄环境等因素的影响,重叠鱼群尾数检测仍为水下目标检测领域的难点之一。该研究以水下重叠鱼群图像为研究对象,提出了一种基于图像增强与改进Faster-RCNN网络的重叠鱼群尾数检测模型。在图像预处理部分,该研究利用MSRCR算法结合自适应中值滤波算法进行水下图像增强;在Faster-RCNN网络的改进部分,该研究采用ResNeXt101网络作为模型主干网络、增加带有CBAM(Convolution Block Attention Module)注意力机制的Bi-PANet(Bilinear-Path Aggregation Network)路径聚合网络、使用PAM(Partitioning Around Medoids)聚类算法优化网络初始预测框的尺度和数量、以Soft-NMS(Soft Non-Maximum Suppression)算法替代NMS(Non-Maximum Suppression)算法。通过以上措施提高模型对于重叠鱼群尾数的检测精度。通过消融试验可得,改进后的模型对水下重叠鱼群图像的平均检测精度和平均召回率分别为76.8%和85.4%,两项指标较Faster-RCNN模型分别提高了8.4个百分点和13.2个百分点。通过对多种模型的实际试验结果进行对比可知,改进后的模型的平均准确率相较于YOLOv3-spp、SSD300和YOLOv5x6分别高出32.9个百分点、12.3个百分点和6.7个百分点。改进后的模型对重叠数量为2~5尾的鱼群进行数量检测时,成功率分别为80.4%、75.6%、65.1%和55.6%,明显高于其他目标检测算法,可为重叠鱼群尾数检测提供参考。  相似文献   

13.
鱼类生物量无损测算是智能化水产养殖的重要环节,如何实现鱼体全长精准估算是该环节稳定运行的重要前提。该研究以红鳍东方鲀为对象,提出了一种鱼体全长精准估算方法,可在非接触情况下对自由游动的红鳍东方鲀进行精准的体长估算。首先,利用双目立体视觉技术对原始图像进行校正和立体匹配获得深度图像,并通过SOLOv2模型进行鱼体分割;然后,通过自主设计的独立分类器对图像进行高效分类,自动获取可用于全长估算的鱼类侧面图像,其分类准确率达95.3%;最后,耦合图像平面特征和深度信息,对鱼类进行三维姿态拟合,实现鱼类全长精准估算。结果表明,该方法全长估算的平均相对误差为2.67%,标准差为9.45%,且全长估算值与质量表现出良好相关性(R2=0.88)。该研究将为鱼类生物量无损测算提供关键技术支撑,对水产养殖的信息化管理、鱼类生长状况评估、投饵控制等具有重要意义。  相似文献   

14.
大豆籽粒的表型参数获取对大豆育种具有重要的作用。现有的深度学习算法获取的大豆籽粒表型性状较少,且识别表型的神经网络模型训练成本高。本研究基于OpenCV图像处理库,提出了一种提取大豆籽粒多表型参数的算法,从大豆图像中一次性获取籽粒的多种表型性状参数,同时能识别大豆的优劣品质。将每个待测大豆单株的所有籽粒拍成一张图像,首先对大豆籽粒图像进行二值化、去噪等预处理,然后采用分水岭算法和改进的目标分割算法提取图像中的大豆籽粒轮廓。根据大豆籽粒的轮廓信息,调用OpenCV图像处理函数计算大豆籽粒的个数、长轴长度、短轴长度、面积、周长等多个表型性状参数。引入圆形度识别残缺大豆籽粒,使用RGB阈值判断识别病变大豆籽粒。测试结果表明,采用本文算法计算的颗粒总数识别率为98.4%,大豆籽粒正确识别率为95.2%,破损大豆和病变大豆的识别率分别为91.25%和88.94%,籽粒的长轴长度与短轴长度的测量精度分别为96.8%、95.8%;引入多进程并行计算,该算法的 处理215张图片时间为248.9 s,相对于单进程计算缩短了约2/3,实现了低成本高通量的高精度大豆籽粒多表型性状参数的自动获取,为大豆籽粒自动化考种提供有效的处理方法。  相似文献   

15.
海珍品检测对海洋牧场的智能化建设至关重要,在实时性和准确性方面仍有待提高。该研究提出一种改进的YOLOv3海珍品检测方法。利用深度可分离卷积替代YOLOv3中的标准卷积,得到一个轻量化网络模型DSC-YOLO(Depthwise Separable Convolution-YOLO);在数据预处理方面,采用图像增强方法 UGAN提升海珍品图像清晰度,采用Mosaic数据增广方法丰富数据的多样性。在海珍品数据集上的试验结果显示,相较YOLOv3而言,所提模型大小减少70%,推理时间降低16%,召回率R提高了2.7%,平均准确率提高了2.4%,F1分数提高了0.4%。可见该方法模型小、实时性好,具有部署到移动设备上的潜力。  相似文献   

16.
玉米苗期杂草的计算机识别技术研究   总被引:14,自引:5,他引:14  
利用计算机视觉技术和人工神经网络技术对识别玉米苗期田间杂草进行了研究。首先利用类间方差最大自动阈值法二值化杂草图像的超绿特征,再进行连续腐蚀与膨胀,然后根据长宽比、圆度、第一不变矩3个形状特征由BP网络识别出玉米幼苗,最后利用种子填充法从阈值分割结果中擦除玉米目标,剩余的就是杂草目标。研究表明,基于BP网络的杂草识别算法对玉米幼苗与杂草的正确识别率分别为87.5%和93.0%,处理一幅640×480像素的杂草图像平均耗时约为58 ms。  相似文献   

17.
针对水下图像普遍存在低对比度、低亮度和颜色失真,以及现有的水下图像复原方法恢复结果不自然、亮度不均和主体色调偏红等问题。该文提出了双背景光自适应融合与透射图精准估计水下图像方法。采用基于水下光衰减特性和背景光平坦性的双背景光自适应融合策略以提高估算的融合背景光准确度,通过新型水下暗通道先验、反向饱和图和三通道光谱衰减系数估算出更加精准的水下图像透射图,最后将估算出的融合背景光与精准透射图应用于水下成像模型得到复原后的水下图像。在广东罗非鱼良种场水产养殖数据集和水下图像增强基准数据集的试验结果表明:对比暗通道先验、最大强度先验、基于模糊和光吸收、蓝绿通道去雾、基于背景光统计模型和透射图优化5种水下图像复原方法,在主观恢复效果评价中,该文方法能有效纠正水下图像失真、亮度偏暗和主体色调偏红等问题;在7个客观评价指标中,该文方法在6个指标中取得最好值,其中全参考图像质量评价指标中的峰值信噪比、结构相似性、均方误差和视觉信息保真度等数值比次好水下图像复原方法分别提升了0.52%、2.1%、3.4%和0.86%;无参考图像质量评价指标中的自然图像质量评价指标和水下图像质量评价数值比次好水下图像复原方法分别提升了2.4%和7.4%。该文方法在解决传统水下图像复原方法中存在的亮度不均和颜色偏红等问题具有一定优势,可以为水下图像复原方法提供技术借鉴。  相似文献   

18.
基于机器视觉的猪体体尺测点提取算法与应用   总被引:18,自引:13,他引:5  
无应激获取猪体的体尺、体质量,是猪福利养殖中的一个重要任务,为解决机器视觉提取自然站立姿态下猪体的体尺测点识别率低的问题,该文通过在线摄像机获取120d龄长白猪的彩色图像,以猪体体尺传统的测量位置为研究基础,结合猪舍现场实际情况,提出了复杂背景下猪体个体信息提取的算法、基于包络分析的猪体头部和尾部的去除算法以及具有一定弯曲姿态的复杂猪体体尺测点坐标提取的算法,并利用Matlab2010软件实现了其算法。验证试验结果表明:通过背景减法和去除噪声算法可去除背景干扰,有效识别猪体信息;测点提取算法可准确提取自然姿态下猪的个体轮廓,识别其体尺测点,实现了猪体的体长、体宽等体尺量算的9个体尺测点的坐标提取,经验证,对猪体体长的实测值平均相对误差最小,其平均相对误差仅为0.92%;其次为腹部体宽,其平均相对误差为1.39%;而对猪体肩宽和臀宽的检测误差较大,平均相对误差分别为2.75%和3.03%。本研究可应用于猪体无应激量算体尺、估算猪体体质量,为开展福利养殖提供了一种新方法。  相似文献   

19.
基于小麦群体图像的田间麦穗计数及产量预测方法   总被引:15,自引:11,他引:4  
在田间小麦测产时,需人工获取田间单位面积内的麦穗数和穗粒数,耗时耗力。为了快速测量小麦田间单位面积内的产量,该文利用特定装置以田间麦穗倾斜的方式获取田间麦穗群体图像,通过转换图像颜色空间RGB→HSI,提取饱和度S分量图像,然后把饱和度S分量图像转换成二值图像,再经细窄部位粘连去除算法进行初步分割,再由边界和区域的特征参数判断出粘连的麦穗图像,并利用基于凹点检测匹配连线的方法实现粘连麦穗的分割,进而识别出图像中的麦穗数量;通过计算图像中每个麦穗的面积像素点数并由预测公式得到每个麦穗的籽粒数,进而计算出每幅图像上所有麦穗的预测籽粒数,然后计算出0.25 m2区域内对应的4幅图像上的预测籽粒数;同时根据籽粒千粒质量数据,计算得到该区域内的产量信息。该文在识别3个品种田间麦穗单幅图像中麦穗数量的平均识别精度为91.63%,籽粒数的平均预测精度为90.73%;对3个品种0.25 m2区域的小麦麦穗数量、总籽粒数及产量预测的平均精度为93.83%、93.43%、93.49%。运用该文方法可以实现小麦田间单位面积内的产量信息自动测量。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号