首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 187 毫秒
1.
为快速、准确地监测设施番茄灰霉病的发生情况,选取灰霉病发生的环境因子特征和图像特征两类数据,分别构建基于单因子的灰霉病的识别模型,并研究两个模型间的关联识别模型。首先,连续采集番茄灰霉病发生与不发生设施温室的最高空气温度和平均空气湿度,构建基于Logistic回归分析的设施番茄灰霉病温湿度预测模型;然后,开展番茄叶部灰霉病RGB图像的采集和预处理,建立图像数据集,构建基于ResNet50-CBAM卷积神经网络的番茄灰霉病RGB图像识别模型;最后,运用多模态融合技术,以温湿度预测模型为文本模态,图像识别模型为图像模态,构建番茄灰霉病智能协同诊断模型。试验结果表明:在VGG16,MobileNet V2,ResNet50和ResNet50-CBAM四个网络模型中,ResNet50-CBAM网络结构准确率最高,达到95.48%,使用基于多模态融合技术的番茄灰霉病智能协同诊断技术的准确率达98.3%,比温湿度预测模型提高14.7%,比RGB图像识别模型提高2.82%。  相似文献   

2.
针对蓝莓果蝇虫害分类识别存在效率低、准确度差等问题,采用深度学习方法对采集的蓝莓高光谱图像进行数据处理与分析,以实现蓝莓果蝇虫害的无损检测。首先蓝莓高光谱图像采用PCA进行降维,优选数据集PC2与PC3并进行拼接得到最佳数据集PC23,对数据集中图像进行旋转90°、旋转180°、模糊、高亮、低亮、镜像和高斯噪声共7种增强操作,使各数据集容量扩增为原始容量的18倍。然后采用VGG16、InceptionV3与ResNet50深度学习模型对蓝莓果蝇虫害图像进行检测,均取得了较高的识别准确率。其中ResNet50模型效率最高,且ResNet50模型的准确率最高,达到92.92%,损失率最低,仅有3.08%,因此ResNet50模型在蓝莓果蝇虫害无损检测方面整体识别效果最佳。为了进一步提高蓝莓果蝇虫害无损检测性能,从ECA注意力模块、Focal Loss损失函数与Mish激活函数3方面对ResNet50模型进行了改进,构建了改进的im-ResNet50模型。得出im-ResNet50模型识别准确率达95.69%,损失率为1.52%。试验结果表明, im-ResNet50模型有效提升了蓝莓果蝇虫害识别能力。采用Grad-CAM分析了im-ResNet50模型可解释性,能够快速、准确地无损检测蓝莓果蝇虫害。  相似文献   

3.
基于神经网络的实蝇成虫图像识别算法   总被引:2,自引:0,他引:2  
为了实现从图像中快速、准确地识别双翅目果实蝇害虫,本文提出一种基于神经网络学习模型的识别算法。该算法首先采用Hough变换对实蝇样本图像的双翅边缘进行直线检测,使图像中实蝇旋转为躯体朝上形态,同时限定条纹所在的有效区域。结合HSV色彩空间锁定胸背板上的条纹区,对该区域进一步处理,根据中心条纹形状特征的描述方法,提取出形状特征参数,定义4种实蝇形态特征向量。采集90幅实蝇图像中各目标的4种特征因子,建立BP神经网络对数据集进行训练,从而得到用于实蝇分类的神经网络模型参数。试验结果表明,该方法对双翅目实蝇成虫的识别效果具有较好的准确性和实时性,对橘小实蝇、南瓜实蝇和瓜实蝇的识别准确率分别为95.45%、93.33%和97.83%,总体准确率为95.56%,单次识别平均耗时500ms。  相似文献   

4.
为实现非接触、高精度个体识别,本文提出了一种基于牛只脸部RGB-D信息融合的个体身份识别方法。以108头28~30月龄荷斯坦奶牛作为研究对象,利用Intel RealSense D455深度相机采集2334幅牛脸彩色/深度图像作为原始数据集。首先,采用冗余图像剔除方法和自适应阈值背景分离算法进行图像预处理,经增强共得到8344幅牛脸图像作为数据集;然后,分别选取Inception ResNet v1、Inception ResNet v2和SqueezeNet共3种特征提取网络进行奶牛脸部特征提取研究,通过对比分析,确定FaceNet模型的最优主干特征提取网络;最后,将提取的牛脸图像特征L2正则化,并映射至同一特征空间,训练分类器实现奶牛个体分类。测试结果表明,采用Inception ResNet v2作为FaceNet模型的主干网络特征提取效果最优,在经过背景分离数据预处理的数据集上测试牛脸识别准确率为98.6%,验证率为81.9%,误识率为0.10%。与Inception ResNet v1、SqueezeNet网络相比,准确率分别提高1、2.9个百分点;与未进行背景分离的数据集相比,准确率提高2.3个百分点。  相似文献   

5.
何威  米阳  刘刚  丁向东  李涛 《农业机械学报》2023,54(S1):275-282,329
针对生猪体质量准确测定问题,提出了一种跨模态特征融合模型(Cross modality feature fusion ResNet,CFF-ResNet),充分利用可见光图像的纹理轮廓信息与深度图像的空间结构信息的互补性,实现了群养环境中无接触的生猪体质量智能测定。首先,采集并配准俯视猪圈的可见光与深度图像,并通过EdgeFlow算法对每一只目标生猪个体进行由粗到细的像素级分割。然后,基于ResNet50网络构建双流架构模型,通过内部插入门控形成双向连接,有效地结合可见光流和深度流的特征,实现跨模态特征融合。最后,双流分别回归出生猪体质量预估值,通过均值合并得到最终的体质量测定值。在试验中,以某种公猪场群养生猪为数据采集对象,构建了拥有9842对配准可见光和深度图像的数据集,包括6909对训练数据和2933对测试数据。本研究所提出模型在测试集上的平均绝对误差为3.019kg,平均准确率为96.132%。与基于可见光和基于深度的单模态基准模型相比,该模型体质量测定精度更高,其在平均绝对误差上分别减少18.095%和12.569%。同时,该模型体质量测定精度优于其他现有生猪体质量测定方法:常规图像处理模型、改进EfficientNetV2模型、改进DenseNet201模型和BotNet+DBRB+PFC模型,在平均绝对误差上分别减少46.272%、14.403%、8.847%和11.414%。试验结果表明,该测定模型能够有效学习跨模态的特征,满足了生猪体质量测定的高精度要求,为群养环境中生猪体质量测定提供了技术支撑。  相似文献   

6.
茶叶等级评价是检测茶叶品质的一项重要技术指标。通过提取红茶高光谱成像技术下的图像特征和光谱特征,构建一种基于图谱融合方法、适用于英德红茶等级评价的快速无损判别模型。首先制备3种不同等级的红茶样本,采用t分布-随机近邻嵌入和主成分分析对光谱数据进行降维可视化分析,然后从影响内在品质角度用连续投影法提取每种化学值的特征波长,通过多模型共识策略和竞争性自适应重加权算法-连续投影法筛选得出表征其内在品质的最佳特征波长组合,并建立基于遗传算法优化支持向量机的等级判别模型;其模型的训练集准确率为88%,预测集准确率为78.33%。为了融合外形纹理差异,先提取最佳特征波长组合对应的高光谱图像;采用图像掩膜消除背景的干扰和采用图像主成分分析消除多波长图像间的冗余信息,然后采用灰度共生矩阵和局部二值化算法提取主成分前三维主成分图像与特征光谱融合,并建立基于特征融合的遗传算法优化支持向量机等级判别模型,且基于第三主成分图像特征融合模型判别效果最佳,训练集准确率提升至98%,预测集准确率提升至96.67%。  相似文献   

7.
针对传统柑橘分级技术大多依赖人工获取特征信息,工作繁琐且效率低,难以实现在食品工业条件下进行有效识别的特点,提出一种基于注意力机制的改进残差网络的柑橘分类方法。该研究在残差网络(ResNet34)的基础上加入注意力机制,提高了有用信息的权重,同时降低了无关信息的权重,从而改善了分类模块的特征信息采集水平,进而提升了模型的分类能力。试验结果表明,基于注意力机制的残差网络对健康柑橘与缺陷柑橘的分类准确率达到99.02%,相较于原ResNet34模型分类准确率有了相对地提高和稳定。加入注意力机制的残差网络对于柑橘表面缺陷具有更好的特征提取能力,能够提取更多的柑橘缺陷特征信息。该研究有助于提高柑橘产业生产率,并为柑橘缺陷识别提供参考。  相似文献   

8.
基于深度卷积神经网络的柑橘目标识别方法   总被引:7,自引:0,他引:7  
针对户外自然环境,基于深度卷积神经网络设计了对光照变化、亮度不匀、前背景相似、果实及枝叶相互遮挡、阴影覆盖等自然环境下典型干扰因素具有良好鲁棒性的柑橘视觉识别模型。模型包括可稳定提取自然环境下柑橘目标视觉特征的深层卷积网络结构、可提取高层语义特征来获取柑橘特征图的深层池化结构和基于非极大值抑制方法的柑橘目标位置预测结构,并基于迁移学习完成了柑橘目标识别模型训练。本文运用多重分割的方法提高了柑橘目标识别模型的多尺度图像检测能力和实时性,利用包含多种干扰因素的自然环境下柑橘目标数据集测试,结果表明,柑橘识别模型对自然采摘环境下常见干扰因素及其叠加具有良好的鲁棒性和实时性,识别平均准确率均值为86. 6%,平均损失为7. 7,平均单帧图像检测时间为80 ms。  相似文献   

9.
毛桃等果实的准确检测是实现机械化、智能化农艺管理的必要前提。然而,由于光照不均和严重遮挡,在果园中实现毛桃,尤其是套袋毛桃的检测一直面临着挑战。本研究基于改进YOLOv5s和多模态视觉数据提出了面向机械化采摘的毛桃多分类准确检测。具体地,构建了一个多类标签的裸桃和套袋毛桃的RGB-D数据集,包括4127组由消费级RGB-D相机获取的像素对齐的彩色、深度和红外图像。随后,通过引入方向感知和位置敏感的注意力机制,提出了改进的轻量级YOLOv5s(小深度)模型,该模型可以沿一个空间方向捕捉长距离依赖,并沿另一个空间方向保留准确的位置信息,提高毛桃检测精度。同时,通过将卷积操作分解为深度方向的卷积与宽度、高度方向的卷积,使用深度可分离卷积在保持模型检测准确性的同时减少模型的计算量、训练和推理时间。实验结果表明,使用多模态视觉数据的改进YOLOv5s模型在复杂光照和严重遮挡环境下,对裸桃和套袋毛桃的平均精度(Mean Average Precision,mAP)分别为98.6%和88.9%,比仅使用RGB图像提高了5.3%和16.5%,比YOLOv5s提高了2.8%和6.2%。在套袋毛桃检测方面,改进YOLOv5s的mAP比YOLOX-Nano、PP-YOLO-Tiny和EfficientDet-D0分别提升了16.3%、8.1%和4.5%。此外,多模态图像、改进YOLOv5s对提升自然果园中的裸桃和套袋毛桃的准确检测均有贡献,所提出的改进YOLOv5s模型在检测公开数据集中的富士苹果和猕猴桃时,也获得了优于传统方法的结果,验证了所提出的模型具有良好的泛化能力。最后,在主流移动式硬件平台上,改进后的YOLOv5s模型使用五通道多模态图像时检测速度可达每秒19幅,能够实现毛桃的实时检测。上述结果证明了改进的YOLOv5s网络和含多类标签的多模态视觉数据在实现果实自动采摘系统视觉智能方面的应用潜力。  相似文献   

10.
基于改进ResNet的植物叶片病虫害识别   总被引:1,自引:0,他引:1  
轻量化植物叶片病虫害识别算法设计是实现移动端植物叶片病虫害识别的关键。研究提出一种基于改进ResNet模型的轻量化植物叶片病虫害识别算法Simplify ResNet。以人工采集图像和PlantVillage数据集图像为实验数据,根据移动端植物病虫害识别对准确率、速度和模型大小的实际需求,改进ResNet模型。使用5×5卷积替代7×7卷积,采用残差块的瓶颈结构代替捷径结构,采用模型剪枝处理训练后的模型。通过测试集5 786幅图像测试Simplify ResNet模型,证明5×5卷积和残差块的瓶颈结构可有效降低模型参数量,模型剪枝可有效降低训练后的模型大小。Simplify ResNet模型对测试集图像的识别准确率为92.45%,识别时间为48 ms,内存大小为36.14 Mb。与LeNet、AlexNet和MobileNet等模型相比,其准确率分别高18.3%,7.45%和1.2%。为移动端植物病虫害识别解决最重要的算法设计问题,为移动端植物病虫害识别做出有益探索。  相似文献   

11.
针对目前我国核桃内部品质混杂、不易检测等问题,提出利用X射线成像技术结合卷积神经网络对核桃内部品质进行快速检测.对获取的核桃X射线图像进行预处理和数据扩充,采用GoogLeNet、ResNet 101、MobileNet v2和VGG 19共4种迁移学习模型构建卷积神经网络,对核桃数据集进行训练.通过预测集准确率、预测...  相似文献   

12.
以水果分拣控制过程为研究对象,基于RGB图像检测方法建立分拣控制算法.同时,利用异步图像采集模式进行水果图像获取,并借助中值滤波和高斯滤波器两种方式实现水果图像噪音去除;采用全局自动阈值分割法进行水果图像特征提取,从而实现水果颜色特征及表面区域特征的识别分类.将特征数据与设定好的特征阈值进行对比,从而实现水果等级的鉴定...  相似文献   

13.
针对小麦腥黑穗病轻度患病籽粒易与健康籽粒混淆,人工识别难度大的问题,将校正光谱序列融合技术与深度学习模型相结合,实现小麦腥黑穗病籽粒快速、精准分类。以健康、轻度患病、重度患病各300粒小麦籽粒的高光谱数据为样本,通过多元散射校正算法(MSC)和标准正态变换算法(SNV)对原始光谱进行预处理,并利用二维相关光谱法(2D-COS)分析SNV与MSC算法处理后的光谱之间的互补性。使用校正光谱序列融合技术将原始光谱、SNV预处理光谱与MSC预处理光谱三者进行融合得到序列融合光谱,以充分利用不同光谱预处理数据间的互补信息。最终,利用序列融合光谱数据建立基于ResNet 50算法的小麦腥黑病分类模型。试验结果表明,序列融合光谱ResNet 50模型总体准确率最高为93.89%,F1值为93.87%,分类性能优于单一预处理光谱建立的ResNet 50模型。为进一步评估模型分类效果,使用序列融合光谱分别建立偏最小二乘判别分析(PLS-DA)、支持向量机(SVM)以及集成学习算法模型随机森林(RF)与极端梯度提升树(XGBoost)模型,并进行对比,结果显示:SVM、PLS-DA、RF与XGBoost总体准确率分别为81.67%、84.44%、89.44%与90.55%,F1值分别为81.59%、84.04%、89.49%与90.59%,ResNet 50总体准确率与F1值优于传统光谱分析模型。因此,本研究表明校正光谱序列融合技术结合深度学习模型,能够实现对不同患病程度腥黑穗病籽粒的有效分类。  相似文献   

14.
为了有效实施对鲜杏表面缺陷的快速检测,基于LabVIEW软件平台和IMAQ Vision视觉工具包,开发了可同时检测鲜杏表面磨伤、日灼、霉变及碰伤缺陷的在线视觉检测系统。该系统包含图像在线采集和处理识别模块。最后,通过对搭建的系统在水平输送速度为0.063m/s条件下,对190个各类鲜杏样本进行RGB彩色图像采集,然后提取G单分量图像并依次采用中值滤波、图像灰度变换、阈值分割及形态学处理等算法对缺陷鲜杏图像进行处理和分析,得到正常果、磨伤果、日灼果、霉变果、碰伤果检测的准确率分别为88.00%、73.33%、80.00%、8 2.5 0%、8 7.5 0%,整体在线识别率达到8 3.1 5%。  相似文献   

15.
基于Faster R-CNN的田间西兰花幼苗图像检测方法   总被引:4,自引:0,他引:4  
为解决自然环境下作物识别率不高、鲁棒性不强等问题,以西兰花幼苗为研究对象,提出了一种基于Faster R-CNN模型的作物检测方法。根据田间环境特点,采集不同光照强度、不同地面含水率和不同杂草密度下的西兰花幼苗图像,以确保样本多样性,并通过数据增强手段扩大样本量,制作PASCAL VOC格式数据集。针对此数据集训练Faster R-CNN模型,通过设计ResNet101、ResNet50与VGG16网络的对比试验,确定ResNet101网络为最优特征提取网络,其平均精度为90. 89%,平均检测时间249 ms。在此基础上优化网络超参数,确定Dropout值为0. 6时,模型识别效果最佳,其平均精度达到91. 73%。结果表明,本文方法能够对自然环境下的西兰花幼苗进行有效检测,可为农业智能除草作业中的作物识别提供借鉴。  相似文献   

16.
准确分割单个杨树叶是无接触提取杨树苗叶表型参数的前提,针对大田杨树苗的复杂种植环境,本文提出一种基于SegNet与三维点云聚类的大田杨树苗叶片分割方法。首先对Kinect V2相机进行标定,对齐RGB与深度数据,滤除背景,获得RGB与深度数据融合数据;然后针对RGB与深度融合数据采用语义分割算法SegNet对杨树苗叶与杨树干进行分割;为了更好地分割出单个杨树叶,对分割的杨树叶区域重构出三维点云,采用基于几何距离的kd-tree对单个树叶进行分类。对采集的单株树苗与多株树苗数据进行了实验分析,采用SegNet与FCN分别对杨树苗叶区域与茎区域进行分割,结果表明,SegNet对叶、茎检测准确率分别为94.4%、97.5%,交并比分别为75.9%、67.9%,优于FCN;对叶区域采用不同距离阈值的kd-tree算法进行单叶分割分析,确定了适合杨树叶的分割阈值。实验结果表明,本文提出的分割算法不仅能分割出单株杨树苗的叶片,也能分割出多株杨树苗的单个叶片。  相似文献   

17.
准确分割单个杨树叶是无接触提取杨树苗叶表型参数的前提,针对大田杨树苗的复杂种植环境,本文提出一种基于SegNet与三维点云聚类的大田杨树苗叶片分割方法。首先对Kinect V2相机进行标定,对齐RGB与深度数据,滤除背景,获得RGB与深度数据融合数据;然后针对RGB与深度融合数据采用语义分割算法SegNet对杨树苗叶与杨树干进行分割;为了更好地分割出单个杨树叶,对分割的杨树叶区域重构出三维点云,采用基于几何距离的kd-tree对单个树叶进行分类。对采集的单株树苗与多株树苗数据进行了实验分析,采用SegNet与FCN分别对杨树苗叶区域与茎区域进行分割,结果表明,SegNet对叶、茎检测准确率分别为94.4%、97.5%,交并比分别为75.9%、67.9%,优于FCN;对叶区域采用不同距离阈值的kd-tree算法进行单叶分割分析,确定了适合杨树叶的分割阈值。实验结果表明,本文提出的分割算法不仅能分割出单株杨树苗的叶片,也能分割出多株杨树苗的单个叶片。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号