首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 406 毫秒
1.
基于无人机图像的多尺度感知麦穗计数方法   总被引:3,自引:3,他引:0  
小麦是世界上重要的粮食作物,其产量的及时、准确预估对世界粮食安全至关重要,小麦穗数是估产的重要数据,因此该研究通过构建普适麦穗计数网络(Wheat Ear Counting Network,WECnet)对灌浆期小麦进行精准的计数与密度预估。选用多个国家不同品种的麦穗图像进行训练,并且对数据集进行增强,以保证麦穗多样性。在原始人群计数网络CSRnet基础上,针对小麦图像特点构建WECnet网络。在网络前端,通过使用VGG19的前12层进行特征提取,同时与上下文语义特征进行融合,充分提取麦穗的特征信息。后端网络使用不同空洞率的卷积加大感受野,输出高质量的密度图。为了验证模型的可迁移性与普适性,该研究通过基于全球小麦数据集训练好的模型对无人机实拍的麦田图像进行计数。试验结果表明:在全球小麦数据集上,WECnet训练模型的决定系数、均方根误差(Root Mean Square Error,RMSE)与平均绝对误差(Mean Absolute Error,MAE)分别达到了0.95、6.1、4.78。在无人机拍摄图像计数中,决定系数达到0.886,整体错误率仅为0.23%,平均单幅小麦图像计数时间为32 ms,计数速度与精度均表现优异。结果表明,普适田间小麦计数模型WECnet可以对无人机获取图像中小麦的准确计数及密度预估提供数据参考。  相似文献   

2.
准确、快速地统计苗木数量对苗圃的运营和管理具有重要意义,是提高苗圃运营和管理水平的有效方式。为快速准确统计完整地块内苗木数量,该研究选取云杉为研究对象,以无人机航拍完整地块云杉视频为数据源,提出一种基于YOLOv3(You Only Look Once v3,YOLOv3)和SORT(Simple Online and Realtime Tracking,SORT)的云杉数量统计方法。主要内容包括数据采集、YOLOv3检测模型构建、SORT跟踪算法和越线计数算法设计。以平均计数准确率(Mean Counting Accuracy,MCA)、平均绝对误差(Mean Absolute Error,MAE)、均方根误差(Root Mean Square Error,RMSE)和帧率(Frame Rate,FR)为评价指标,该方法对测试集中对应6个不同试验地块的视频内云杉进行数量统计的平均计数准确率MCA为92.30%,平均绝对误差MAE为72,均方根误差RMSE为98.85,帧率FR 11.5 帧/s。试验结果表明该方法能够快速准确统计完整地块的云杉数量。相比SSD+SORT算法,该方法在4项评价指标优势显著,平均计数准确率MCA高12.36%,帧率FR高7.8 帧/s,平均绝对误差MAE和均方根误差RMSE分别降低125.83和173.78。对比Faster R-CNN+SORT算法,该方法在保证准确率的基础上更加快速,平均计数准确率MCA仅降低1.33%,但帧率FR提高了10.1 帧/s。该研究从无人机航拍视频的角度为解决完整地块的苗木数量统计问题做出了有效探索。  相似文献   

3.
冬小麦是中国重要的粮食作物,开展县级冬小麦产量预测对粮食宏观调控和农业精准化发展具有重要指导意义。该研究从县级产量预测角度出发,结合卷积神经网络(Convolutional Neural Networks,CNN)和反向传播神经网络(Back Propagation Neural Networks,BP)技术提出了冬小麦县级产量预测方法,使用CNN卷积神经网络对Sentinel-2遥感数据进行冬小麦种植区的分析和提取,将得到的种植区分布数据与MODIS EVI数据和耕地分布数据进行了融合,利用BP神经网络对融合后的数据进行产量特征提取和预测并选取均方根误差(Root Mean Square Error,RMSE)、平均绝对误差(Mean Absolute Error,MAE)和样本决定系数(Coefficient of Determination,R2)作为精度指标对试验结果进行分析和评价。结果表明,基于CNN卷积神经网络和BP神经网络的冬小麦县级产量预测方法在山东省2014-2016年冬小麦县级产量验证集中R2达到0.87以上,MAE低于269.48 kg/hm2,RMSE低于346.56 kg/hm2,93%的县单产相对误差小于9%,试验结果平均值与中位数的偏差小于1.2%;在河南省2015-2019年冬小麦县级产量验证集中R2达到0.96以上,MAE低于304.84 kg/hm2,RMSE低于418.14 kg/hm2,91%的县单产相对误差小于9%,试验结果平均值与中位数的偏差小于1.6%,方法所构建模型具有良好的预测准确率、鲁棒性和泛化性,可以实现县级尺度下的冬小麦产量预测。  相似文献   

4.
基于深度卷积神经网络的田间麦穗密度估计及计数   总被引:8,自引:8,他引:0  
小麦的最终产量可由单位面积的小麦麦穗数侧面反映,为了快速准确统计小麦麦穗数,该研究给出一种在单幅图像上利用深度卷积神经网络估计田间麦穗密度图并进行麦穗计数的方法。首先对采集的田间小麦图像进行直方图均衡化及阈值分割预处理,以减少图像中光照及一些复杂背景对计数的影响;然后根据灌浆期田间小麦图像麦穗密集的特点,引入拥挤场景识别网络(Congested Scene Recognition Network,CSRNet)构建麦穗密度图估计模型,并采用迁移学习方法,利用小麦图像公开数据集对模型进行预训练,再用所采集的小麦图像数据集进行模型参数调整和优化;利用得到的模型生成单幅小麦图像的麦穗密度图,根据密度图中所有密度值的总和对图像进行麦穗计数。最后根据对单幅麦穗图像的试验数据,构建田间麦穗计数函数模型,实现田间小麦麦穗数估计。通过对所采集的安农170、苏麦188、乐麦608和宁麦24这4个品种共296幅小麦图像进行试验,平均绝对误差(Mean Absolute Error,MAE)和均方根误差(Root Mean Squared Error,RMSE)分别为16.44和17.89,4个品种小麦的麦穗计数值与真实值的决定系数R2均在0.9左右,表明该方法对单幅图像小麦麦穗计数精度较高。此外,通过对田间小麦麦穗数进行估计试验,结果表明,随面积的增大麦穗估计的误差越小,研究结果可以为小麦的产量自动估计提供参考。  相似文献   

5.
融合动态机制的改进型Faster R-CNN识别田间棉花顶芽   总被引:4,自引:4,他引:0  
针对田间密植环境棉花精准打顶时,棉花顶芽因其小体积特性所带来识别困难问题,该研究提出一种改进型更快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)目标检测算法实现大田环境棉花顶芽识别。以Faster R-CNN为基础框架,使用 RegNetX-6.4GF作为主干网络,以提高图像特征获取性能。将特征金字塔网络(Feature Pyramid Network,FPN)和导向锚框定位(Guided Anchoring,GA)机制相融合,实现锚框(Anchor)动态自适应生成。通过融合动态区域卷积神经网络(Dynamic Region Convolutional Neural Networks,Dynamic R-CNN)方法,实现训练阶段检测模型自适应候选区域(Proposal)分布的动态变化,以提高算法训练效果。最后在目标候选区域(Region of Interest,ROI)中引入目标候选区域提取器(Generic ROI Extractor,GROIE)提高图像特征融合能力。采集自然环境7种不同棉花材料总计4 819张图片,建立微软常见物体图像识别库2017(Microsoft Common Objects in Context 2017,MS COCO 2017)格式的棉花顶芽图片数据集进行试验。结果表明,该研究提出的方法平均准确率均值(Mean Average Precision,MAP)为98.1%,模型的处理速度(Frames Per Second,FPS)为10.3帧/s。其MAP在交并比(Intersection Over Union,IOU)为0.5时较Faster R-CNN、RetinaNet、Cascade R-CNN和RepPoints网络分别提高7.3%、78.9%、10.1%和8.3%。该研究算法在田间对于棉花顶芽识别具有较高的鲁棒性和精确度,为棉花精准打顶作业奠定基础。  相似文献   

6.
基于无人机图像和贝叶斯CSRNet模型的粘连云杉计数   总被引:1,自引:1,他引:0  
自动、准确且快速地统计苗木数量是实现苗圃高效管理的重要基础。针对现有苗木计数方法准确率较低且无法准确统计粘连苗木等问题,该研究提出了一种基于贝叶斯CSRNet模型的云杉计数模型。该模型以对粘连苗木具有良好稳定性的CSRNet模型为基础,引入贝叶斯损失函数,以人工标注的点标签数据作为监督信号。以1 176幅云杉图像训练贝叶斯CSRNet模型,并通过166幅测试集云杉图像测试。结果表明,贝叶斯CSRNet模型可以准确、快速地统计无人机航拍图像内的云杉,对测试集图像内云杉的平均计数准确率(Mean Counting Accuracy,MCA)、平均绝对误差(Mean Absolute Error,MAE)和均方误差(Mean Square Error,MSE)分别为99.19%、1.42和2.80。单幅云杉图像耗时仅为248 ms,模型大小为62 Mb。对比YOLOv3模型、改进YOLOv3模型、CSRNet模型和贝叶斯CSRNet模型对166幅测试集云杉图像的计数结果,贝叶斯CSRNet模型的MCA分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型高3.43%、1.44%和1.13%;贝叶斯CSRNet模型的MAE分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型低6.8、2.9和1.67;贝叶斯CSRNet模型的MSE分别比YOLOv3模型、改进YOLOv3模型、CSRNet模型低101.74、23.48和8.57。在MCT和MS两项指标上,贝叶斯CSRNet模型与CSRNet模型相同且优于YOLOv3模型和改进YOLOv3模型。贝叶斯CSRNet模型可实现无人机航拍图像内苗木数量的自动、准确、快速统计,为苗木库存智能盘点提供参考。  相似文献   

7.
苗木数量统计和库存管理对于大型苗圃经营和管理十分重要。该研究针对种植稠密的云杉地块,以无人机航拍云杉图像为对象,提出一种改进IntegrateNet模型,实现稠密云杉的准确计数。选择对稠密目标识别性能好的IntegrateNet为基础模型,根据稠密云杉粘连严重以及杂草背景干扰进行改进,首先使用自校正卷积(self-calibrated convolutions,SCConv)提高卷积感受野,增强模型对于不同尺寸云杉的适应能力。其次,在特征融合处应用十字交叉注意力机制(criss-cross attention,CCA)提高模型对上下文信息的提取能力。以平均计数准确率(mean counting accuracy,MCA)、平均绝对误差(mean absolute error,MAE)、均方根误差(root mean square error,RMSE)和决定系数R2为评价指标。分析结果表明,改进IntegrateNet模型在181幅测试集上的平均计数准确率,平均绝对误差,均方根误差,决定系数分别达到98.32%,8.99株、13.79株和0.99,相较于TasselNetv3_lite、TasselNetv3_seg和IntegrateNet模型,平均计数准确率分别提升16.44、10.55和9.26个百分点,平均绝对误差分别降低25.62、10.45和6.99株,均方根误差分别降低48.25、13.84和12.52株。改进IntegrateNet模型能够有效提高稠密云杉的计数准确率,可为完善苗木数量统计系统提供算法基础。  相似文献   

8.
基于高光谱技术的猪肉肌红蛋白含量无损检测   总被引:2,自引:2,他引:0  
为充分利用猪肉光谱与图像信息,实现猪肉肌红蛋白含量的在线检测,该研究提出一种基于深度学习模型的猪肉肌红蛋白含量无损检测方法。采用高光谱设备采集冷藏过程中猪肉高光谱图像,通过ENVI5.3选择图像感兴趣区域(Region Of Interest,ROI),分别提取ROI平均光谱信息与主成分图像信息。利用卷积自动编码器(Convolutional Auto Encoder,CAE)提取光谱与图像信息深度特征,分别建立光谱特征、图像特征及图-谱融合特征与肌红蛋白含量之间关系的卷积神经网络(Convolutional Neural Network,CNN)预测模型。其中基于融合深度特征CNN预测模型准确度较高,该模型对脱氧肌红蛋白(DeoMb)、氧合肌红蛋白(OxyMb)、高铁肌红蛋白(MetMb)含量预测集决定系数分别为:0.964 5、0.973 2、0.958 5,预测集均方根误差 RMSEP分别为:0.015 8、0.226 6、0.381 6。为进一步验证图-谱融合特征与猪肉肌红蛋白存在对应关系,分别建立偏最小二乘回归(Partial Least Squares Regression,PLSR)、支持向量机回归(Support Vector Regression,SVR)预测模型。结果表明:CAE能充分提取图像与光谱特征;基于融合特征建立回归模型能提高肌红蛋白含量预测精度,相比于光谱信息与图像信息,以MetMb为例其分别提高5.42%、16.12%。该检测方法为肉类质量在线检测提供参考,具有好的应用前景。  相似文献   

9.
基于红外热成像的夜间农田实时语义分割   总被引:3,自引:3,他引:0  
易诗  李俊杰  贾勇 《农业工程学报》2020,36(18):174-180
农田环境实时语义分割是构成智能农机的视觉环境感知的重要环节,夜间农田语义分割可以使智能农机在夜间通过视觉感知农田环境进行全天候作业,而夜间无光环境下,可见光摄像头成像效果较差,将造成语义分割精度的下降。为保证夜间农田环境下红外图像语义分割的精度与实时性,该研究提出了一种适用于红外图像的红外实时双边语义分割网络(Infrared Real-time Bilateral Semantic Segmentation Network,IR-BiSeNet),根据红外图像分辨率低,细节模糊的特点该网络在实时双边语义分割网络(Bilateral Semantic Segmentation Net,BiSeNet)结构基础上进行改进,在其空间路径上,进一步融合红外图像低层特征,在该网络构架中的注意力提升模块、特征融合模块上使用全局最大池化层替换全局平均池化层以保留红外图像纹理细节信息。为验证提出方法的有效性,通过在夜间使用红外热成像采集的农田数据集上进行试验,数据集分割目标包括田地、行人、植物、障碍物、背景。经试验验证,提出方法在夜间农田红外数据集上达到了85.1%的平均交并比(Mean Intersection over Union,MIoU),同时达到40帧/s的处理速度,满足对夜间农田的实时语义分割。  相似文献   

10.
基于CNN-BiLSTM的棉花产量预测方法   总被引:1,自引:1,他引:0  
针对传统的作物产量估算方法在模型泛化方面的不足及缺少时序特征和空间特征的问题,该研究以机采棉为研究对象,结合无人机遥感平台与深度学习技术对棉花进行多期遥感观测与估产。以棉花苗期、蕾期和花期的影像为时间序列数据集,构建基于卷积神经网络(Convolutional Neural Network,CNN)和双向长短期记忆(Bidirectional Long Short-Term Memory,BiLSTM)的混合模型(CNN-BiLSTM)进行棉花产量预估,提高时间维度和空间维度方面的特征提取能力,并分别验证CNN和BiLSTM的性能以及不同网络深度对估产的影响。研究结果表明,CNN和BiLSTM深度分别为14和1的CNN14-BiLSTM模型准确率最高,对比单一结构的BiLSTM该模型决定系数从0.851提升至0.885,其均方根误差和平均绝对百分比误差也均明显下降,在2.3 m×2.3 m的样方内,结果分别为147.167 g和6.711%。该研究实现了基于时间序列的棉花产量估算,可为类似的作物产量估算提供参考。  相似文献   

11.
为对干扰、遮挡等复杂的田野环境中麦穗进行精准定位与计数,该研究提出了一种改进的Oriented R-CNN麦穗旋转框检测与计数方法,首先在主干网络中引入跨阶段局部空间金字塔(spatial pyramid pooling cross stage partial networks,SPPCSPC)模块扩大模型感受野,增强网络感知能力;其次,在颈网络中结合路径聚合网络(PANet,path aggregation network)和混合注意力机制(E2CBAM,efficient two convolutional block attention module),丰富特征图包含的特征信息;最后采用柔性非极大值抑制算法(Soft-NMS,soft-non maximum suppression)优化预测框筛选过程。试验结果显示,改进的模型对复杂环境中的麦穗检测效果良好。相较原模型,平均精确度均值mAP提高了2.02个百分点,与主流的旋转目标检测模型Gliding vertex、R3det、Rotated Faster R-CNN、S2anet和Rotated Retinanet相比,mAP分...  相似文献   

12.
注意力与多尺度特征融合的水培芥蓝花蕾检测   总被引:1,自引:3,他引:1  
准确辨识水培芥蓝花蕾特征是区分其成熟度,实现及时采收的关键。该研究针对自然环境下不同品种与成熟度的水培芥蓝花蕾外形与尺度差异大、花蕾颜色与茎叶相近等问题,提出一种注意力与多尺度特征融合的Faster R-CNN水培芥蓝花蕾分类检测模型。采用InceptionV3的前37层作为基础特征提取网络,在其ReductionA、InceptionA和InceptionB模块后分别嵌入SENet模块,将基础特征提取网络的第2组至第4组卷积特征图通过FPN特征金字塔网络层分别进行叠加后作为特征图输出,依据花蕾目标框尺寸统计结果在各FPN特征图上设计不同锚点尺寸。对绿宝芥蓝、香港白花芥蓝及两个品种的混合数据集测试的平均精度均值mAP最高为96.5%,最低为95.9%,表明模型能实现不同品种水培芥蓝高准确率检测。消融试验结果表明,基础特征提取网络引入SENet或FPN模块对不同成熟度花蕾的检测准确率均有提升作用,同时融合SENet模块和FPN模块对未成熟花蕾检测的平均准确率AP为92.3%,对成熟花蕾检测的AP为98.2%,对过成熟花蕾检测的AP为97.9%,不同成熟度花蕾检测的mAP为96.1%,表明模型设计合理,能充分发挥各模块的优势。相比VGG16、ResNet50、ResNet101和InceptionV3网络,模型对不同成熟度花蕾检测的mAP分别提高了10.8%、8.3%、 6.9%和12.7%,检测性能具有较大提升。在召回率为80%时,模型对不同成熟度水培芥蓝花蕾检测的准确率均能保持在90%以上,具有较高的鲁棒性。该研究结果可为确定水培芥蓝采收期提供依据。  相似文献   

13.
在蝴蝶兰(Phalaenopsis aphrodite)产业中,种苗在达到最短营养栽培时长时的生长势在其后续的栽培链和最终的经济利润中起着重要的作用。当前在商业大型温室中主要采取人工方式对每株种苗进行评估,既费时又费力。基于RGB图像进行植物生长评估的相关研究依赖于从图像中手动提取人工定义的特征,从而影响了机器学习模型的有效性和泛化能力。本研究使用卷积神经网络(Convolutional Neural Network,CNN)来探讨其以端对端方式评估温室中蝴蝶兰种苗生长势的可行性。对在温室中采集的图像数据集,采用不同的CNN架构(VGG、ResNet和Inception-v3)结合不同的训练机制(从头训练、微调、特征提取)建立基准模型,其中微调取得了最佳的分类结果。考虑到本研究的目标任务是对具有复杂图像背景的单个温室种苗的形态分类,为进一步提高模型性能,在可控的实验室条件下采集了更多的种苗图像。实验室图像进行背景分割后,用于协助模型更好地学习植株的形态,即建立增强模型。与基准模型相比,2种增强方式总体上在温室测试集的F1-score取得了0.03~0.05的提升。采用增强方式II的VGG模型取得了最高的性能(温室测试集上的F1-score为0.997),并对该模型的特征图进行可视化。在高层特征图中,目标种苗区域被激活,同时滤除了大部分背景(包括相邻种苗的叶片),进一步证明了能够采用CNN对温室种苗进行有效的形态学习和刻画。总体结果表明,深度学习模型可用于基于图像的蝴蝶兰种苗生长势评估,并且可扩展用于温室下其他植物类型的生长评估。  相似文献   

14.
针对油菜生长早期传统人工苗情调查方法效率低、主观意识强,不能满足大面积或经常性高精度苗期调查作业需求的问题,该研究基于无人机影像及机器学习技术,提出一种油菜苗视频流检测模型及计数方法。通过对YOLO系列基础模型添加多头自注意力,用BasicRFB(basic receptive field block)模块替换原有的空间池化结构(spatial pyramid pooling-fast,SPPF)模块,并对Neck部分添加一维卷积及更换下采样方式等,进一步结合DeepSORT(deep simple online and real-time tracking)算法和越线计数技术实现对油菜苗的数量统计。算例测试结果表明,改进后YOLOv5s的交并比阈值0.50的平均精度均值达到93.1%,交并比阈值0.50~0.95的平均精度均值达到了67.5%,明显优于Faster R-CNN、SSD和YOLOX等其他经典目标检测算法,交并比阈值0.50的平均精度均值分别高出14.82、26.37和3.3个百分点,交并比阈值为0.50~0.95范围下的平均精度均值分别高出25.7、33.9和6.7个百分点。油菜苗计数试验结果表明,离线视频计数时,在合理的种植密度区间内,所提算法的油菜苗计数精度平均达到93.75%,计数效率为人工计数的9.54倍;在线实时计数时,在不同天气情况下,计数平台的油菜苗计数精度最大相差1.87个百分点,具有良好的泛化性,满足油菜苗计数实时性要求。  相似文献   

15.
基于改进YOLOv3-Tiny的番茄苗分级检测   总被引:3,自引:3,他引:0  
为了提高番茄苗分选移栽分级检测精度,该研究提出了YOLOv3-Tiny目标检测改进模型.首先建立了番茄穴盘苗数据集,使用K-means++算法重新生成数据集锚定框,提高网络收敛速度和特征提取能力;其次为目标检测模型添加SPP空间金字塔池化,将穴孔局部和整体特征融合,提高了对弱苗的召回率;同时加入路径聚合网络(PANet...  相似文献   

16.
改进YOLOv5测量田间小麦单位面积穗数   总被引:2,自引:2,他引:0  
单位面积穗数是决定小麦产量的主要因素之一。针对人工清点小麦穗数的方法容易受主观因素影响、效率低和图像处理方法鲜有进行系统部署等问题,提出一种注意力模块(Convolutional Block Attention Module,CBAM)与YOLOv5相结合的CBAM-YOLOv5网络结构,通过对特征图进行自适应特征细化,实现更准确的单位面积穗数测量。该研究以本地采集小麦图像数据和网络公开小麦图像数据为数据集,设置输入图像分辨率为1 280,得到CBAM-YOLOv5模型,可以达到0.904的F1分数和0.902的平均精度,测试集计数的平均相对误差为2.56%,平均每幅图像耗时0.045 s,综合对比,CBAM-YOLOv5模型具有显著优势。模型放置于服务器,结合手机端软件和辅助装置,形成单位面积穗数测量系统,实现育种小区麦穗图像实时采集、处理和计数,计数的平均相对误差为2.80%,抗环境干扰性强。该研究方法与装置可以实现田间小麦单位面积穗数的实时在线检测,降低主观误差,具有较高的准确率及较强的鲁棒性,为小麦单位面积穗数快速、准确估测提供一种新的技术和装备支撑。  相似文献   

17.
棉田虫害的快速检测与准确识别是预防棉田虫害、提高棉花品质的重要前提。针对真实棉田环境下昆虫相似度高、背景干扰严重的问题,提出一种ECSF-YOLOv7棉田虫害检测模型。首先,采用EfficientFormerV2作为特征提取网络,以加强网络的特征提取能力并减少模型参数量;同时,将卷积注意力模块(convolution block attention module,CBAM)嵌入到模型的主干输出端,以增强模型对小目标的特征提取能力并削弱背景干扰;其次,使用GSConv卷积搭建Slim-Neck颈部网络结构,在减少模型参数量的同时保持模型的识别精度;最后,采用Focal-EIOU(focal and efficient IOU loss,Focal-EIOU)作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进的ECSF-YOLOv7模型在棉田虫害测试集上的平均精度均值(mean average precision,mAP)为95.71%,检测速度为69.47帧/s。与主流的目标检测模型YOLOv7、SSD、YOLOv5l和YOLOX-m相比,ECSF-YOLOv7模型的mAP分别高出1.43、9.08、1.94、1.52个百分点,并且改进模型具有参数量更小、检测速度更快的优势,可为棉田虫害快速准确检测提供技术支持。  相似文献   

18.
基于多流高斯概率融合网络的病虫害细粒度识别   总被引:9,自引:9,他引:0  
为解决由于现有深度迁移学习无法有效匹配实际农业场景部署应用,而导致大规模、多类别、细粒度的病虫害辨识准确低、泛化鲁棒差等问题,该研究利用农业物联网中多种设备终端获取12.2万张181类病虫害图像,并提出了基于多流概率融合网络MPFN(Multi-stream Gaussian Probability Fusion Network)的病虫害细粒度识别模型。该模型设计多流深度网络并行的细粒度特征提取层,挖掘可区分细微差异的不同级别局部特征表达,经过局部描述特征聚合层和高斯概率融合层的整合优化,发挥多模型融合信息互补及置信耦合的优势,既可以有效区分不同类病虫害的种间微小差异,又可容忍同类病虫害种内明显差异干扰。对比试验表明,该研究MPFN模型对各类病虫害的平均识别准确率达到93.18%,性能优于其他粗粒度及细粒度深度学习方法;而平均单张处理时间为61ms,能够满足农业生产实践中物联网各终端病虫害细粒度图像识别需求,可为智能化病虫害预警防控提供技术应用参考,进而为保障农作物产量和品质安全提供基础。  相似文献   

19.
针对复杂棉田环境下传统图像分割技术存在分割精度低、实时性弱和鲁棒性差等问题,该研究以脱叶期新疆密植棉花为对象,结合低空无人机遥感平台,提出一种RCH-UNet(resnet coordinate hardswish UNet)棉花产量快速预测模型。将UNet中传统的CBR(convolution batch normalization ReLU)下采样模块替换为ResNet50,同时将CA(coordinateattention)注意力机制和hardswish激活函数引入UNet,以提高图像特征的提取能力,增强图像分割效果。基于无人机采集的棉花图像数据集评估RCH-UNet模型性能。试验结果表明,在本文构建的棉花图像数据集上,RCH-UNet模型的棉花分割交并比达到92.79%,像素准确率达到96.22%,精确率为96.30%,与原始U-Net、PSPNet和DeepLabv3相比,像素准确率分别提高了9.85、17.67、6.31个百分点。通过RCH-UNet提取棉花像素比和灰度共生矩阵提取纹理特征,结合岭回归分析构建多因素棉花产量预测模型,模型的R2为0.92,预测产量与实际产量平均绝对百分比误差为9.254%。研究结果可为新疆密植棉花产量预测提供技术支持。  相似文献   

20.
融合注意力机制的个体猪脸识别   总被引:1,自引:1,他引:0  
随着机器视觉技术的发展,猪脸识别作为猪只个体识别方法之一受到广泛关注。为了探索非接触式的猪只个体精准识别,该研究通过深度学习模型DenseNet融合CBAM(Convolutional Block Attention Module),建立改进的DenseNet-CBAM模型对猪脸进行识别。将DenseNet121模型进行精简,然后将CBAM注意力模块嵌入到精简的DenseNet121分类网络之前,以加强对关键特征的提取,实现猪脸图像的分类。以随机采集的1 195张猪脸图像作为数据集对本文模型进行测试。结果表明,DenseNet-CBAM模型对个体猪脸识别的准确率达到99.25%,模型参数量仅为DenseNet121的1/10;与ResNet50、GoogLetNet和MobileNet模型相比,DenseNet-CBAM的识别准确率分别提高了2.18、3.60和23.94个百分点。研究结果可为智能化养殖过程非接触式个体识别提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号