首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 140 毫秒
1.
基于无人机图像和贝叶斯CSRNet模型的粘连云杉计数   总被引:1,自引:1,他引:0  
自动、准确且快速地统计苗木数量是实现苗圃高效管理的重要基础。针对现有苗木计数方法准确率较低且无法准确统计粘连苗木等问题,该研究提出了一种基于贝叶斯CSRNet模型的云杉计数模型。该模型以对粘连苗木具有良好稳定性的CSRNet模型为基础,引入贝叶斯损失函数,以人工标注的点标签数据作为监督信号。以1 176幅云杉图像训练贝叶斯CSRNet模型,并通过166幅测试集云杉图像测试。结果表明,贝叶斯CSRNet模型可以准确、快速地统计无人机航拍图像内的云杉,对测试集图像内云杉的平均计数准确率(Mean Counting Accuracy,MCA)、平均绝对误差(Mean Absolute Error,MAE)和均方误差(Mean Square Error,MSE)分别为99.19%、1.42和2.80。单幅云杉图像耗时仅为248 ms,模型大小为62 Mb。对比YOLOv3模型、改进YOLOv3模型、CSRNet模型和贝叶斯CSRNet模型对166幅测试集云杉图像的计数结果,贝叶斯CSRNet模型的MCA分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型高3.43%、1.44%和1.13%;贝叶斯CSRNet模型的MAE分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型低6.8、2.9和1.67;贝叶斯CSRNet模型的MSE分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型低101.74、23.48和8.57。在MCT和MS两项指标上,贝叶斯CSRNet模型与CSRNet模型相同且优于YOLOv3模型和改进YOLOv3模型。贝叶斯CSRNet模型可实现无人机航拍图像内苗木数量的自动、准确、快速统计,为苗木库存智能盘点提供参考。  相似文献   

2.
苗木数量统计和库存管理对于大型苗圃经营和管理十分重要。该研究针对种植稠密的云杉地块,以无人机航拍云杉图像为对象,提出一种改进IntegrateNet模型,实现稠密云杉的准确计数。选择对稠密目标识别性能好的IntegrateNet为基础模型,根据稠密云杉粘连严重以及杂草背景干扰进行改进,首先使用自校正卷积(self-calibrated convolutions,SCConv)提高卷积感受野,增强模型对于不同尺寸云杉的适应能力。其次,在特征融合处应用十字交叉注意力机制(criss-cross attention,CCA)提高模型对上下文信息的提取能力。以平均计数准确率(mean counting accuracy,MCA)、平均绝对误差(mean absolute error,MAE)、均方根误差(root mean square error,RMSE)和决定系数R2为评价指标。分析结果表明,改进IntegrateNet模型在181幅测试集上的平均计数准确率,平均绝对误差,均方根误差,决定系数分别达到98.32%,8.99株、13.79株和0.99,相较于TasselNetv3_lite、TasselNetv3_seg和IntegrateNet模型,平均计数准确率分别提升16.44、10.55和9.26个百分点,平均绝对误差分别降低25.62、10.45和6.99株,均方根误差分别降低48.25、13.84和12.52株。改进IntegrateNet模型能够有效提高稠密云杉的计数准确率,可为完善苗木数量统计系统提供算法基础。  相似文献   

3.
为解决目前苗木计数由人工完成而导致的成本高,效率低,计数精度不能得到保障的问题,该研究以自然环境下的云杉为研究对象,以无人机航拍云杉图像和拼接后完整地块云杉图像为数据源,根据云杉尺寸差异大和训练样本小的特点提出一种基于改进YOLOv3(You Only Look Once v3,YOLOv3)模型的云杉计数模型。该模型将密集连接模块和过渡模块引入特征提取过程,形成Darknet-61-Dense特征提取网络。通过694幅无人机航拍云杉图像测试表明,密集连接模块和过渡模块可解决YOLOv3模型小样本训练过拟合问题和云杉特征丢失问题,改进YOLOv3模型可以快速准确实现云杉计数,在精确率P、召回率R、平均精度AP、平均计数准确率MCA和平均检测时间ADT这5个评价指标上达到96.81%、93.53%、94.26%、98.49%和0.351 s;对比原有YOLOv3模型、SSD模型和Faster R-CNN模型,精确率P分别高2.44%、4.13%和0.84%。对于拼接后完整地块云杉图像,改进YOLOv3模型的5个评价指标的结果分别为91.48%、89.46%、89.27%、93.38%和1.847 s;对比原有YOLOv3模型、SSD模型和Faster R-CNN模型,精确率P分别高2.54%、9.33%和0.74%。该研究为利用无人机快速准确统计苗木数量的关键步骤做出有益的探索。  相似文献   

4.
基于特征融合的棉花幼苗计数算法   总被引:3,自引:3,他引:0       下载免费PDF全文
为了获取棉花幼苗数量,掌握播种成活率和出苗率等关键苗情信息,该研究提出一种基于特征融合的棉花幼苗计数算法。首先,该算法采用VGG-16作为基础模块提取图像特征,使用注意力模块(Convolutional Block Attention Module,CBAM)在通道和空间维度上进行特征增强,然后将增强后的特征与基础模块中的特征进行融合,进一步强化幼苗特征表达,最后通过去冗余和归一化操作得到计数结果。此外,还构建了一个包含399张棉花幼苗图像的数据集,其中包含了对212 572株幼苗的精准手工标注点标签。在该数据集上的测试结果表明,所提出的棉花幼苗计数算法取得了较好的计数效果,平均计数误差(Mean Absolute Error,MAE)和均方根误差(Root Mean Square Error,RMSE)分别为63.46和81.33,对比多列卷积神经网络(Multi-column Convolutional Neural Network, MCNN)、拥挤场景识别网络(Congested Scene Recognition Network, CSRNet)、TasselNet、MobileCount等方法,MAE平均下降了48.8%,RMSE平均下降了45.3%。  相似文献   

5.
针对目前养殖过程中海珍品计数方法成本高、效率低、计数精度难以保障等问题,该研究以真实底播养殖环境下的海珍品为研究对象,以水下拍摄的海珍品视频为数据源,提出一种基于视频多目标跟踪的多类别海珍品计数方法。首先,采用性能优异的YOLOv7算法实现海珍品目标检测器,为多目标跟踪提供输入;然后,结合真实养殖环境下同类别海珍品外观相似性高、不清晰等特点,借鉴BYTE算法的多目标跟踪思想,设计多类别轨迹生成策略和基于轨迹ID号的计数策略,提出一种多类别海珍品跟踪与计数方法。并提出一套更适用于基于轨迹ID号计数方法的评估指标。试验结果表明,改进平均计数精度、改进平均绝对误差、改进均方根误差及帧率分别为91.62%、5.75、6.38和32帧/s,各项指标多优于YOLOv5+DeepSORT、YOLOv7+DeepSORT、YOLOv5+BYTE、YOLOv7+BYTE等算法,尤其改进平均计数精度、帧率指标比YOLOv5+DeepSORT高了29.51个百分点和8帧/s,且在改进平均绝对误差、改进均方根误差指标上分别降低19.50和12.08。该研究方法可有效帮助水产养殖企业掌握水下海珍品数量,为现代化...  相似文献   

6.
冬小麦是中国重要的粮食作物,开展县级冬小麦产量预测对粮食宏观调控和农业精准化发展具有重要指导意义。该研究从县级产量预测角度出发,结合卷积神经网络(Convolutional Neural Networks,CNN)和反向传播神经网络(Back Propagation Neural Networks,BP)技术提出了冬小麦县级产量预测方法,使用CNN卷积神经网络对Sentinel-2遥感数据进行冬小麦种植区的分析和提取,将得到的种植区分布数据与MODIS EVI数据和耕地分布数据进行了融合,利用BP神经网络对融合后的数据进行产量特征提取和预测并选取均方根误差(Root Mean Square Error,RMSE)、平均绝对误差(Mean Absolute Error,MAE)和样本决定系数(Coefficient of Determination,R2)作为精度指标对试验结果进行分析和评价。结果表明,基于CNN卷积神经网络和BP神经网络的冬小麦县级产量预测方法在山东省2014-2016年冬小麦县级产量验证集中R2达到0.87以上,MAE低于269.48 kg/hm2,RMSE低于346.56 kg/hm2,93%的县单产相对误差小于9%,试验结果平均值与中位数的偏差小于1.2%;在河南省2015-2019年冬小麦县级产量验证集中R2达到0.96以上,MAE低于304.84 kg/hm2,RMSE低于418.14 kg/hm2,91%的县单产相对误差小于9%,试验结果平均值与中位数的偏差小于1.6%,方法所构建模型具有良好的预测准确率、鲁棒性和泛化性,可以实现县级尺度下的冬小麦产量预测。  相似文献   

7.
基于无人机图像的多尺度感知麦穗计数方法   总被引:3,自引:3,他引:0  
小麦是世界上重要的粮食作物,其产量的及时、准确预估对世界粮食安全至关重要,小麦穗数是估产的重要数据,因此该研究通过构建普适麦穗计数网络(Wheat Ear Counting Network,WECnet)对灌浆期小麦进行精准的计数与密度预估。选用多个国家不同品种的麦穗图像进行训练,并且对数据集进行增强,以保证麦穗多样性。在原始人群计数网络CSRnet基础上,针对小麦图像特点构建WECnet网络。在网络前端,通过使用VGG19的前12层进行特征提取,同时与上下文语义特征进行融合,充分提取麦穗的特征信息。后端网络使用不同空洞率的卷积加大感受野,输出高质量的密度图。为了验证模型的可迁移性与普适性,该研究通过基于全球小麦数据集训练好的模型对无人机实拍的麦田图像进行计数。试验结果表明:在全球小麦数据集上,WECnet训练模型的决定系数、均方根误差(Root Mean Square Error,RMSE)与平均绝对误差(Mean Absolute Error,MAE)分别达到了0.95、6.1、4.78。在无人机拍摄图像计数中,决定系数达到0.886,整体错误率仅为0.23%,平均单幅小麦图像计数时间为32 ms,计数速度与精度均表现优异。结果表明,普适田间小麦计数模型WECnet可以对无人机获取图像中小麦的准确计数及密度预估提供数据参考。  相似文献   

8.
基于深度卷积神经网络的田间麦穗密度估计及计数   总被引:8,自引:8,他引:0  
小麦的最终产量可由单位面积的小麦麦穗数侧面反映,为了快速准确统计小麦麦穗数,该研究给出一种在单幅图像上利用深度卷积神经网络估计田间麦穗密度图并进行麦穗计数的方法。首先对采集的田间小麦图像进行直方图均衡化及阈值分割预处理,以减少图像中光照及一些复杂背景对计数的影响;然后根据灌浆期田间小麦图像麦穗密集的特点,引入拥挤场景识别网络(Congested Scene Recognition Network,CSRNet)构建麦穗密度图估计模型,并采用迁移学习方法,利用小麦图像公开数据集对模型进行预训练,再用所采集的小麦图像数据集进行模型参数调整和优化;利用得到的模型生成单幅小麦图像的麦穗密度图,根据密度图中所有密度值的总和对图像进行麦穗计数。最后根据对单幅麦穗图像的试验数据,构建田间麦穗计数函数模型,实现田间小麦麦穗数估计。通过对所采集的安农170、苏麦188、乐麦608和宁麦24这4个品种共296幅小麦图像进行试验,平均绝对误差(Mean Absolute Error,MAE)和均方根误差(Root Mean Squared Error,RMSE)分别为16.44和17.89,4个品种小麦的麦穗计数值与真实值的决定系数R2均在0.9左右,表明该方法对单幅图像小麦麦穗计数精度较高。此外,通过对田间小麦麦穗数进行估计试验,结果表明,随面积的增大麦穗估计的误差越小,研究结果可以为小麦的产量自动估计提供参考。  相似文献   

9.
渔船捕捞信息量化是开展限额捕捞精细化管理的前提,为解决中国毛虾限额捕捞目标识别和信息统计量化问题,研究了在中国毛虾限额捕捞渔船上安装电子监控(electronic monitoring,EM)设备,并基于YOLOv7提出一种改进的目标检测算法(YOLOv7-MO)和目标计数算法(YOLOv7-MO-SORT)。YOLOv7-MO目标检测算法采用MobileOne作为主干网络,在输出端head部分加入C3模块,并完成剪枝操作;YOLOv7-MO-SORT目标计数算法将SORT(simple online and realtime tracking)算法中的Fast R-CNN替换为YOLOv7-MO,用于检测捕捞作业中抛出的锚和装有毛虾的筐。采用卡尔曼滤波和匈牙利匹配算法对检测到的目标进行跟踪预测,设置碰撞检测线、时间戳、阈值和计数器,实现对捕捞作业过程中渔获毛虾筐数和下网数量计数。结果表明:1)改进后的YOLOv7-MO在测试集上的平均检测精度、召回率、F1得分分别达到了97.3%,96.0%,96.6%,相比YOLOv7模型分别提升了2.0、1.1和1.5个百分点。2)改进后的YOLOv7-MO模型大小、参数量和浮点运算数分别为64.0 MB、32.6 M、39.7 G,相比YOLOv7模型分别缩小了10.2%、10.6%和61.6%。3)以YOLOv7-MO为检测器的SORT算法毛虾捕捞作业计数准确率在统计毛虾筐数和下网数量上分别达到80.0%和95.8%。YOLOv7-MO在提高检测精度的同时减轻了模型量级,提高了检测效率。结果表明,该研究能够为实现渔船捕捞作业信息记录自动化和智能化提供方法,为毛虾限额捕捞管理提供决策参考依据。  相似文献   

10.
该研究对基于注意力机制的长短期记忆(Attention-Based Long Short Term Memory,AT-LSTM)模型对蒸散量(Evapotranspiration,ET)模拟的可行性和有效性进行验证,以提高环境数据缺失情况下的蒸散量模拟精度。基于盐池县2012-2017年的每30 min环境数据,利用不同环境因子组合构建基于注意力机制的LSTM模型,并将其与极限学习机(Extreme Learning Machine,ELM)模型、支持向量机(Support Vector Machine,SVM)模型、长短期记忆(Long Short Term Memory,LSTM)模型在日尺度、月尺度和季节尺度上进行对比分析。结果表明:与其他3种模型相比,当输入环境因子变化时,AT-LSTM模型模拟精度变化很小,模拟效果均较好。当输入空气温度、净辐射、相对湿度、土壤温度、土壤含水率所有环境因子时,基于AT-LSTM模型的模拟效果最好,均方根误差(Root Mean Square Error,RMSE)为0.013 mm/30 min,平均绝对误差(Mean Absolute Error,MAE)为0.006 mm/30 min,相关系数(Correlation Coefficient,R)值为0.905。且无论是从小时尺度、日尺度和月尺度来看,AT-LSTM模型的模拟效果均优于其他3种模型。在环境因子缺失的情况下,净辐射对盐池县ET的模拟贡献程度最大,仅输入净辐射时,AT-LSTM模型模拟得到的RMSE和MAE分别为0.014、0.007 mm/30 min,R为0.892,模型模拟精度较高,AT-LSTM模型模拟精度高,模型稳定性强,对蒸散量模拟预测具有一定的适用性,仅输入净辐射的AT-LSTM模型可以作为环境数据缺失条件下的蒸散量预测模型。  相似文献   

11.
针对油菜生长早期传统人工苗情调查方法效率低、主观意识强,不能满足大面积或经常性高精度苗期调查作业需求的问题,该研究基于无人机影像及机器学习技术,提出一种油菜苗视频流检测模型及计数方法。通过对YOLO系列基础模型添加多头自注意力,用BasicRFB(basic receptive field block)模块替换原有的空间池化结构(spatial pyramid pooling-fast,SPPF)模块,并对Neck部分添加一维卷积及更换下采样方式等,进一步结合DeepSORT(deep simple online and real-time tracking)算法和越线计数技术实现对油菜苗的数量统计。算例测试结果表明,改进后YOLOv5s的交并比阈值0.50的平均精度均值达到93.1%,交并比阈值0.50~0.95的平均精度均值达到了67.5%,明显优于Faster R-CNN、SSD和YOLOX等其他经典目标检测算法,交并比阈值0.50的平均精度均值分别高出14.82、26.37和3.3个百分点,交并比阈值为0.50~0.95范围下的平均精度均值分别高出25.7、33.9和6.7个百分点。油菜苗计数试验结果表明,离线视频计数时,在合理的种植密度区间内,所提算法的油菜苗计数精度平均达到93.75%,计数效率为人工计数的9.54倍;在线实时计数时,在不同天气情况下,计数平台的油菜苗计数精度最大相差1.87个百分点,具有良好的泛化性,满足油菜苗计数实时性要求。  相似文献   

12.
为提高高分辨率田间葡萄图像中小目标葡萄检测的速度和精度,该研究提出了一种基于轻量级网络的酿酒葡萄检测模型(Wine Grape Detection Model,WGDM)。首先,采用轻量级网络MobileNetV2取代YOLOv3算法的骨干网络DarkNet53完成特征提取,加快目标检测的速度;其次,在多尺度检测模块中引入M-Res2Net模块,提高检测精度;最后,采用平衡损失函数和交并比损失函数作为改进的定位损失函数,增大目标定位的准确性。试验结果表明,提出的WGDM模型在公开的酿酒葡萄图像数据集的测试集上平均精度为81.2%,网络结构大小为44 MB,平均每幅图像的检测时间为6.29 ms;与单发检测器(Single Shot Detector,SSD)、YOLOv3、YOLOv4和快速区域卷积神经网络(Faster Regions with Convolutional Neural Network,Faster R-CNN)4种主流检测模型相比,平均精度分别提高8.15%、1.10%、3.33%和6.52%,网络结构分别减小了50、191、191和83 MB,平均检测时间分别减少了4.91、7.75、14.84和158.20 ms。因此,该研究提出的WGDM模型对田间葡萄果实具有更快速、更准确的识别与定位,为实现葡萄采摘机器人的高效视觉检测提供了可行方法。  相似文献   

13.
针对复杂环境下柑橘果实大量重叠、枝叶遮挡且现有模型参数量大、计算复杂度高等问题,提出了一种基于改进YOLOv8n的柑橘识别模型YOLOv8-MEIN。首先,该研究设计了ME卷积模块并使用它改进YOLOv8n的C2f模块。其次,为了弥补CIoU损失函数在检测任务中泛化性弱和收敛速度慢的问题,使用Inner-CIoU损失函数加速边界框回归,提高模型检测性能。最后,在自建数据集上进行模型试验对比,试验结果表明,YOLOv8-MEIN模型交并比阈值为0.5的平均精度均值mAP0.5值为96.9%,召回率为91.7%,交并比阈值为0.5~0.95的平均精度均值mAP0.5~0.95值为85.8%,模型大小为5.8MB,参数量为2.87M。与原模型YOLOv8n相比,mAP0.5值、召回率、mAP0.5~0.95值分别提高了0.4、1.0、0.6个百分点,模型大小和参数量相比于原模型分别降低了3.3%和4.3%,为柑橘的自动化采摘提供技术参考。  相似文献   

14.
基于空间金字塔池化和深度卷积神经网络的作物害虫识别   总被引:6,自引:5,他引:1  
为了减少因作物害虫姿态多样性和尺度多样性导致其识别精度相对较低的问题,该文将空间金字塔池化与改进的YOLOv3深度卷积神经网络相结合,提出了一种基于空间金字塔池化的深度卷积神经网络农作物害虫种类识别算法,首先对测试图像上的害虫进行检测定位,然后对检测定位出的害虫进行种类识别。通过改进YOLOv3的网络结构,采用上采样与卷积操作相结合的方法实现反卷积,使算法能够有效地检测到图片中体型较小的作物害虫样本;通过对采集到的实际场景下20类害虫进行识别测试,识别精度均值可达到88.07%。试验结果表明,本文提出的识别算法能够有效地对作物害虫进行检测和种类识别。  相似文献   

15.
基于YOLO_X和迁移学习的无人机影像玉米雄穗检测   总被引:1,自引:1,他引:0  
玉米雄穗表型信息的获取对研究玉米长势及产量起着非常重要的作用,为实现复杂田间环境玉米雄穗的精确识别和计数,该研究使用无人机采集试验田的玉米雄穗影像,基于FasterR-CNN、SSD、YOLO_X目标检测模型,使用迁移学习方法实现玉米雄穗的高精度识别,并分析了模型对不同品种和不同种植密度的玉米雄穗检测效果。试验结果表明,基于迁移学习的FasterR-CNN、SSD、YOLO_X的目标检测效果相比于未使用迁移学习的模型有明显提升,其中,迁移学习后YOLO_X的识别精确度为97.16%,平均精度为93.60%,准确度为99.84%,对数平均误检率为0.22,识别效果最好;不同玉米品种对模型的适应性有所差异,其中郑单958对模型适应性最好,Faster R-CNN、SSD、YOLO_X的决定系数R2分别为0.9474、0.9636、0.9712;不同种植密度下玉米雄穗的检测效果有所差异,在29985,44 978,67 466,89 955株/hm2种植密度下,模型对郑单958检测的平均绝对误差分别为0.19、0.31、0.37、0.75,随着种植...  相似文献   

16.
基于RGB图像与深度学习的冬小麦田间长势参数估算系统   总被引:4,自引:4,他引:0  
为准确、快速获取冬小麦田间长势信息,该研究设计并实现了一种基于深度学习的冬小麦田间长势参数估算系统。该系统主要包含长势参数估算模块和麦穗计数模块。长势参数估算模块基于残差网络ResNet18构建长势参数估算模型,实现了冬小麦苗期叶面积指数(Leaf Area Index,LAI)和地上生物量(Above Ground Biomass,AGB)的估算,并基于迁移学习进行泛化能力测试;麦穗计数模块基于Faster R-CNN并结合非极大值抑制(Non Maximum Suppression,NMS)构建麦穗计数模型,实现了开花期麦穗准确计数。结果表明,针对2017-2018和2018-2019两个生长季数据,基于ResNet18的长势参数估算模型对LAI估算的决定系数分别为0.83和0.80,对AGB估算的决定系数均为0.84,优于基于传统卷积神经网络(Convolutional Neural Networks,CNN)、VGG16和GoogLeNet构建的估算模型,并且泛化能力测试表明该模型对数据的季节性差异鲁棒。基于Faster R-CNN的麦穗计数模型,在利用NMS优化后决定系数从0.66增至0.83,提升了25.8%,NRMSE从0.19降至0.05,下降了73.7%。相较于基于CNN构建的分类计数模型,基于Faster R-CNN+NMS的麦穗计数模型表现更优,决定系数为0.83,提升了33.87%,单个麦穗识别时间为1.009 s,效率提升了20.55%。综上所述,该系统能够满足冬小麦田间长势参数估算需求,为冬小麦田间精细化管理提供支撑。  相似文献   

17.
为提高香蕉采摘机器人的作业效率和质量,实现机器人末端承接机构的精确定位,该研究提出一种基于YOLOv5算法的蕉穗识别,并对蕉穗底部果轴进行定位的方法。将CA(Coordinate Attention)注意力机制融合到主干网络中,同时将C3(Concentrated-Comprehensive Convolution Block)特征提取模块与CA注意力机制模块融合构成C3CA模块,以此增强蕉穗特征信息的提取。用 EIoU(Efficient Intersection over Union)损失对原损失函数CIoU(Complete Intersection over Union)进行替换,加快模型收敛并降低损失值。通过改进预测目标框回归公式获取试验所需定位点,并对该点的相机坐标系进行转换求解出三维坐标。采用D435i深度相机对蕉穗底部果轴进行定位试验。识别试验表明,与YOLOv5、Faster R-CNN等模型相比,改进YOLOv5模型的平均精度值(mean Average Precision, mAP)分别提升了0.17和21.26个百分点;定位试验表明,采用改进YOLOv5模型对蕉穗底部果轴定位误差均值和误差比均值分别为0.063 m和2.992%,与YOLOv5和Faster R-CNN模型相比,定位误差均值和误差比均值分别降低了0.022 m和1.173%,0.105 m和5.054%。试验实时可视化结果表明,改进模型能对果园环境下蕉穗进行快速识别和定位,保证作业质量,为后续水果采摘机器人的研究奠定了基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号