首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 653 毫秒
1.
鱼类生物量无损测算是智能化水产养殖的重要环节,如何实现鱼体全长精准估算是该环节稳定运行的重要前提。该研究以红鳍东方鲀为对象,提出了一种鱼体全长精准估算方法,可在非接触情况下对自由游动的红鳍东方鲀进行精准的体长估算。首先,利用双目立体视觉技术对原始图像进行校正和立体匹配获得深度图像,并通过SOLOv2模型进行鱼体分割;然后,通过自主设计的独立分类器对图像进行高效分类,自动获取可用于全长估算的鱼类侧面图像,其分类准确率达95.3%;最后,耦合图像平面特征和深度信息,对鱼类进行三维姿态拟合,实现鱼类全长精准估算。结果表明,该方法全长估算的平均相对误差为2.67%,标准差为9.45%,且全长估算值与质量表现出良好相关性(R2=0.88)。该研究将为鱼类生物量无损测算提供关键技术支撑,对水产养殖的信息化管理、鱼类生长状况评估、投饵控制等具有重要意义。  相似文献   

2.
大田玉米长势的三维图像监测与建模   总被引:3,自引:3,他引:0  
基于双目立体视觉对大田间玉米生长参数进行测量,并建立玉米三维生长模型,以实现大田玉米生长参数的实时测量和生长过程的三维虚拟显示。以上次测量的平均株高平面为测量区域基准面,利用大津法提取测量区域的玉米叶片。对测量区域进行均匀网格分割,通过对左右网格的匹配,求得覆盖面积和平均颜色。对网格的形心,通过左右视觉的对应进行三维重建,获得形心点云的三维数据和平均株高。利用标杆的测量方法佐证了三维株高测量的正确性。利用上述测量参数,构建了玉米的三维生长模型,并利用OpenGL实现了玉米生长过程的三维虚拟显示。为下一步玉米生物量的实时无损检测以及更精确的玉米三维虚拟建模奠定了基础。  相似文献   

3.
融合激光三维探测与IMU姿态角实时矫正的喷雾靶标检测   总被引:1,自引:1,他引:0  
刘慧  李宁  沈跃  徐慧 《农业工程学报》2017,33(15):88-97
基于高精度激光传感器的喷雾靶标特征检测是精准施药变量决策的重要依据。为了改善复杂地形条件对车载激光靶标检测的影响,进行了车载激光喷雾靶标检测与矫正研究。该文基于惯性测量单元(inertial measurement unit,IMU)与UTM-30LX型激光传感器搭建靶标检测试验车,IMU实时获取车体姿态角的偏航角、俯仰角及侧倾角信息,车载激光传感器实时获取目标切面轮廓的极坐标数据。将获取的目标切面轮廓的极坐标数据与试验车姿态角信息相匹配,通过矫正算法获取精确的目标外形尺寸信息并重构目标三维图像。试验设计首先对长方体柜子与仿真树进行车体单一动态俯仰角的检测试验,然后以仿真树为试验目标,进行车体存在复合动态俯仰角与侧倾角的检测试验,最后在未知地形条件下对长方体柜子以及仿真树进行动态姿态角检测与矫正试验。利用MATLAB软件对数据矫正分析,对矫正后的目标尺寸信息进行误差分析并重构目标三维图像。试验结果显示矫正后长方体柜子的高度、宽度最大相对误差分别为8.89%和8.00%,仿真树的高度、宽度以及树冠高度最大相对误差分别为5.63%、10.00%和5.00%,矫正效果良好,验证了矫正算法的有效性。  相似文献   

4.
鱼体语义分割是实现鱼体三维建模和语义点云、计算鱼体生长信息的基础。为了提高复杂环境下鱼体语义分割精度,该研究提出了SA-Mask R-CNN模型,即融合SimAM注意力机制的Mask R-CNN。在残差网络的每一层引入注意力机制,利用能量函数为每一个神经元分配三维权重,以加强对鱼体关键特征的提取;使用二次迁移学习方法对模型进行训练,即首先利用COCO数据集预训练模型在Open Images DatasetV6鱼类图像数据集完成第一次迁移学习,然后在自建数据集上完成第二次迁移学习,利用具有相似特征空间的2个数据集进行迁移学习,在一定程度上缓解了图像质量不佳的情况下鱼体语义分割精度不高的问题。在具有真实养殖环境特点的自建数据集上进行性能测试,结果表明,SA-Mask R-CNN网络结合二次迁移学习方法的交并比达93.82%,综合评价指标达96.04%,分割效果优于SegNet和U-Net++,较引入SENet和CBAM注意力模块的Mask R-CNN交并比分别提升了1.79个百分点和0.33个百分点,综合评价指标分别提升了2.03个百分点和0.38个百分点,模型参数量分别减小了4.7和5MB。研究结果可为鱼体点云计算提供参考。  相似文献   

5.
针对传统机器视觉算法难以获取准确视觉引导线的问题,该研究提出了一种利用深度学习算法获取视觉引导线的方法,并将毫米波雷达探测的目标运动状态信息考虑到视觉引导线的提取中,以安全避开障碍物。首先通过数据预处理方法过滤部分雷达目标数据,再利用多目标跟踪算法过滤干扰数据并对动态目标持续跟踪,为后续数据融合提供准确的雷达目标数据。然后制作田间道路环境数据集,搭建基于Deeplabv3 plus的改进语义分割网络。继而利用时间戳对齐和基于最小二乘法的坐标变换实现毫米波雷达数据与视觉数据在时间与空间维度的同步。最后基于无动态目标状态信息和有动态目标状态信息两种情况提出了相应的视觉引导线提取策略,进行相关试验测试了视觉引导线提取方法的效果。相比于人工测量的真实道路中点,在无动态目标场景下提取的视觉引导线的平均误差为1.60~9.20像素;而在有动态目标的场景下,能够成功获取避障的视觉引导线。研究结果有助于提升丘陵山区农业机械的智能化水平。  相似文献   

6.
基于双目立体视觉技术的成熟番茄识别与定位   总被引:12,自引:10,他引:2  
研究了基于双目立体视觉技术的成熟番茄的识别与定位方法,获取了成熟番茄的位置信息,用于指导温室内成熟番茄的自动化采摘作业.该方法利用成熟番茄与背景之间颜色特征的差异进行图像分割来识别成熟番茄;根据图像分割的结果,用形心匹配方法获取番茄中心的位置;然后根据相邻区域像素点灰度的相关性,利用区域匹配方法计算番茄表面各点的深度信息.使用限制候选区域和两次阈值分割的方法减少计算量,提高了计算精度.实验结果表明,工作距离小于550 mm时,番茄深度值的误差约为±15 mm.利用该测量方法可以实现成熟番茄位置信息的获取,测量精度较高.  相似文献   

7.
针对传统鱼体头尾及腹背定向输送由人工操作完成,劳动强度大、生产效率低等问题,该研究探索了利用机器视觉技术结合输送装置实现鱼体头尾及腹背定向排列输送的方法。该研究以鲐鱼(Scomber japonicus)为研究对象,在对鱼体形态特征及物理特性检测的基础上,设计了鱼体提升装置、鱼体分离输送装置、鱼体头尾及腹背定向输送装置、鱼体返回输送装置、定向控制系统等部件组成鲐鱼鱼体定向排列输送装置;构建YOLOv5s目标检测模型对鲐鱼的头尾朝向和腹背朝向进行识别,并根据识别结果控制鱼体定向排列输送完成鲐鱼的头尾和腹背定向作业,检测模型在测试集上的精确率为99.76%,召回率为99.59%,平均检测精度值为99.5%;试制了鱼体定向排列输送装置样机,以单条鱼体提升成功率为评价指标,对不同输送速度下鱼体提升装置的输送效果进行试验;同时以鱼体的头尾定向成功率和腹背定向成功率作为评价指标,以鱼体提升装置输送速度、鱼体分离输送装置输送速度、鱼体头尾及腹背定向输送装置输送速度为试验因素,对鱼体定向排列输送装置的定向输送效果进行试验。试验结果表明:鱼体提升装置在不同输送速度下,都能有效实现鱼体单条分离并向上提升,且不存在鱼体重叠向上输送的情况;当鱼体提升装置输送速度为0.05 m/s、鱼体分离输送装置输送速度为0.45 m/s、鱼体头尾及腹背定向输送装置输送速度为0.60 m/s时,鲐鱼鱼体的头尾定向成功率平均为97.2%,腹背定向成功率平均为95.6%,鱼体定向输送速度可达15条/min。研究结果可为其他淡水鱼鱼体定向排列输送装置的研制提供参考。  相似文献   

8.
为满足智能农业机器人路径规划中障碍物检测的需求,针对传统双目视觉中用于障碍物检测算法的局限性,提出基于点云图的障碍物距离与尺寸的检测方法。该方法以双目视觉中以立体匹配得到的点云图为对象,通过设置有效空间,对不同区域处点云密度的统计,找到点云密度随距离的衰减曲线。远距离障碍物由于相机分辨率的不足,点云密度会随距离下降,通过密度补偿算法进行补偿,经二次设置有效空间后锁定障碍物位置,将目标点云分别投影于俯视栅格图和正视图中,获得其距离和尺寸信息。试验表明:该方法能有效还原障碍物信息,最大测距范围为28 m,平均误差为2.43%;最大尺寸检测范围为10 m,长度和高度平均误差均小于3%。该文基于点云图的栅格化表示和密度补偿算法,通过设置有效空间将点云投影得到障碍物距离和尺寸,不同环境下的精度测试和距离检测验证了可靠性和鲁棒性。  相似文献   

9.
大视场下荔枝采摘机器人的视觉预定位方法   总被引:8,自引:7,他引:1  
机器人采摘荔枝时需要获取多个目标荔枝串的空间位置信息,以指导机器人获得最佳运动轨迹,提高效率。该文研究了大视场下荔枝采摘机器人的视觉预定位方法。首先使用双目相机采集荔枝图像;然后改进原始的YOLOv3网络,设计YOLOv3-DenseNet34荔枝串检测网络;提出同行顺序一致性约束的荔枝串配对方法;最后基于双目立体视觉的三角测量原理计算荔枝串空间坐标。试验结果表明,YOLOv3-DenseNet34网络提高了荔枝串的检测精度与检测速度;平均精度均值(mean average precision,m AP)达到0.943,平均检测速度达到22.11帧/s。基于双目立体视觉的荔枝串预定位方法在3 m的检测距离下预定位的最大绝对误差为36.602 mm,平均绝对误差为23.007 mm,平均相对误差为0.836%,满足大视场下采摘机器人的视觉预定位要求,可为其他果蔬在大视场下采摘的视觉预定位提供参考。  相似文献   

10.
小麦生长信息计算机视觉检测技术研究   总被引:9,自引:2,他引:9  
以计算机视觉检测小麦生长信息为目的,建立了计算机视觉系统以获取小麦图像。在分析小麦生长特性的基础上,提出了用小麦叶片和茎秆之间的叉点数来检测叶数;用色相表示小麦叶片的颜色,对小麦叶片的色相值进行了检测。并在中文Windows 98平台上用Visual C++6.0开发研制了检测软件。  相似文献   

11.
基于Rank变换的农田场景三维重建方法   总被引:1,自引:4,他引:1  
农田场景的三维重建对于研究远程监测作物的生长形态、预测作物产量、识别田间杂草等都具有重要作用。为解决农田场景图像三维重建困难、立体匹配精度较差等问题,该文提出了一种基于Rank变换的农田场景三维建模方法。该方法运用加权平均法灰度化图像,以保留农田场景的完整特征;以灰度图像的Rank变换结果作为匹配基元,采用基于归一化绝对差和测度函数的区域匹配算法获取场景的稠密视差图;根据平行双目视觉成像原理计算场景的空间坐标,并生成三维点云图;依据所得场景的三维坐标,对场景中感兴趣区域实现三维重建。采用标准视差计算测试图像验证立体匹配算法精确性,平均误匹配率较传统的绝对差和函数算法降低约5.63%。运用不同环境下的棉田场景图像测试三维重建方法,试验结果表明,在6.8 m的景深范围内,作物及杂草的高度、宽度等几何参数计算值与实际测量值接近,各项指标的平均相对误差为3.81%,验证了三维重建方法的可靠性及准确性。  相似文献   

12.
基于多视角立体视觉的植株三维重建与精度评估   总被引:3,自引:8,他引:3  
基于图像序列的植株三维结构重建是植物无损测量的重要方法之一。而对重建模型的精度评估方法大多基于视觉逼真程度和常规测量数据。该研究以精确的激光扫描三维模型为参照,采用豪斯多夫距离,从三维尺度上对基于图像序列的植株三维重建模型进行精度评估。同时,从植株表型参数(叶片长、宽、叶面积)方面,对植株三维重建模型进行精度评估。结果表明,基于图像序列的三维重建模型精度较高,豪斯多夫距离在0~10 mm之间,各试验植株豪斯多夫距离大多小于4.0 mm,各植株表型参数与其对照值的R2均大于0.95,且两者的无显著性差异(P0.05)。此植株三维结构重建方法能够应用于植物表型、基因育种、植物表型与环境互作等研究领域。  相似文献   

13.
基于点云旋转归一化的猪体体尺测点提取方法   总被引:2,自引:2,他引:0  
家畜体尺测量是现代畜牧业研究的重要课题,而体尺测点的提取是体尺测量过程中的关键。为了解决猪体点云的三维体尺测点的自动提取问题,提出了一种基于旋转归一化的猪体体尺测点提取方法。对于采集的猪体点云数据,首先利用随机采样一致性算法删除地面区域并提取目标猪体,同时存储地面法向量;然后采用基于地面法向量矫正的主成分分析方法对猪体点云进行旋转归一化,将其统一到标准测量坐标系;最后利用体尺测点的几何形态特征和测点间的结构关系提取猪体体尺测点。试验结果表明,基于地面法向量矫正的主成分分析方法可以得到较好的旋转归一化结果,使猪体的体长,体高和体宽方向基本与坐标系的x轴,y轴,z轴相一致,体长、体宽、体高、臀宽和臀高测点提取结果与实际的体尺测点测量结果位置平均误差在16 mm以内,与其他体尺测点检测方法相比,该方法可以对输入猪体的点云方向进行校正,输入的猪体点云体高方向不需要和相机坐标系的任意一个坐标轴平行,降低了原始数据获取难度。该方法可为猪体的自动化体尺测量提供参考。  相似文献   

14.
植物形态伴随着植物生长过程而发生变化,植物的三维重建对研究植物形态对植物生物量估测、植物病害虫害、基因型表达等有着很重要的意义。目前三维重建方法重建出的三维点云多包含植物的形态、颜色等特征,无法反应植物营养状况(如叶绿素含量)、病虫害胁迫等原因造成有机质空间三维分布改变,同时以往手段都需要专门仪器,携带和作业都受到很大限制。多光谱图像能够反应有机质含量等化学值的分布,在近地面遥感、农产品质量无损检测等发面取得了广泛的应用。该文通过采集31张4叶龄油菜的多光谱图像,使用运动恢复结构算法(structure from motion)方法对其进行空间三维重建,得到油菜的三维点云,并对点云中噪声点进行滤除。以控制点和控制长度对所得模型进行评价,得到长度最大偏差在0.1023 cm,RMSE=0.052599,证明该方法重建所得模型具有较好的空间均匀性与准确性,最后计算NDVI指数空间分布。证明所得模型对将来研究植物营养与病虫害胁迫空间分布有着重要意义。  相似文献   

15.
鱼类养殖是通过人工方式在水中养殖各种鱼类的经济活动。鱼类养殖可以在淡水、海水或者盐碱水环境中进行,通过各种监测技术和设备来培育和管理鱼的生长和繁殖。传统的鱼类养殖监测方法存在效率低和准确性差等问题。近年来,基于深度学习的视觉技术的发展为鱼类养殖监测提供了新的解决方案。该文阐述了基于深度学习的视觉技术在鱼类养殖监测中的应用,并从鱼体测量、鱼类计数、鱼类摄食、鱼类游泳行为和鱼病诊断5个方面分别对研究进展进行梳理。在此基础上总结了鱼类养殖监测在数据采集与传输、建立鱼类养殖监测数据集、超规模参数模型、终端监测设备边缘计算、数字孪生、智能监测业务化应用不足等问题和展望,旨在为深度学习在鱼类养殖监测中的推广应用提供科学参考。  相似文献   

16.
基于双目立体视觉的机械手移栽穴盘定位方法   总被引:1,自引:1,他引:0  
为了解决自动化机械手移栽过程中穴盘放置偏斜和底部局部"凸起"而引起的移栽效果不理想的问题,为机械手提供穴盘精准坐标,对穴盘准确定位方法进行研究。首先,根据机械手移栽特点提出穴盘定位总体方法及图像获取手段。其次,利用单目相机获取的图像采用像素标记法和Radon变换法计算穴盘中心坐标和角度,完成穴盘平面定位。再次,对双目相机获取的图像采用SIFT(scale invariant feature transform)特征匹配的算法获得匹配点对坐标,并提出区域整合匹配点的方法。最后,利用整合的区域双目匹配点坐标配合相机标定结果重建匹配点的三维世界坐标,并且与穴盘平面定位结果相结合完成穴盘空间位置重构。试验结果表明,提出的穴盘定位方法能够真实地恢复穴盘空间姿态,中心像素横纵坐标相对误差分别在(-7,+7)和(-6,+7)像素内,角度检测值与实测值相对误差值在(-0.51°,+0.53°)内,利用SIFT特征匹配算法匹配双目图像,在2×4区域内对8对整合匹配点进行三维世界坐标重建,其中7个坐标的三个维度与测量值相对误差在2 mm内,1个坐标与测量值相对误差为4.6 mm内。该方法所应用的算法成熟,可以满足机械手移栽实际应用处理要求。  相似文献   

17.
为提高鱼类表型分割精度和准确度,实现鱼类表型智能监测,该研究基于深度学习算法构建了VED-SegNet模型用于鱼类表型分割和测量。该模型将cross stage partial network和GSConv结合作为编码器(VoV-GSCSP),保持足够精度的同时降低网络结构复杂性。另一方面,该模型采用EMA(efficient multi-scale attention module with cross-spatial learning)建立强化结构,加强编码器和解码器之间的信息传递,提高模型精度,并实现了8个表型类别的输出。采用自建的鱼类表型分割数据集对VED-SegNet模型进行了测试,测量结果中鱼类各表型比例与实际测量值相接近,表型最大平均绝对和平均相对误差为0.39%、11.28%,能实现无接触式提取水产养殖中鱼类表型比例。对比其他常见语义分割模型,平均交并比mean intersection over union,mIoU和平均像素准确率mean pixel accuracy,m PA最高,分别到达了87.92%、92.83%。VED-SegNet模型在环境复杂、多鱼重叠的...  相似文献   

18.
作为水产养殖集成信息化管理的主要信息源,水产动物视觉属性信息的测量不仅是判定水产动物生长状况,调控水质环境的主要信息依据,也是对水产动物进行喂养、用药、捕获、选别和分级等操作的前提基础。近年来,计算机视觉技术作为一项快速、客观、无损的检测方法,已被逐渐用于水产动物视觉属性的测量中,许多研究学者开展了大量的研究工作。该文更新和总结了国内外近20多年来有代表性的相关研究和解决方案,在描述计算机视觉检测系统的概念和组成结构的基础上,围绕尺寸测量、形状分析、颜色识别和质量估计等方面详细分析了计算机视觉技术在水产动物(以鱼类为主)视觉属性测量方面的国内外研究现状,着重阐述总结了研究人员在水产动物视觉检测的图像采集、轮廓提取、特征标定与计算等方面的具体改进措施,并对基于计算机视觉测量的水产动物疾病诊断,识别分类等综合应用现状也进行了分析探讨,以评估计算机视觉技术在水产动物视觉质量检测领域的总体应用情况和现存的主要问题,同时给出了今后的研究趋势与发展方向。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号