首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 203 毫秒
1.
基于卷积神经网络的大白母猪发情行为识别方法研究   总被引:2,自引:0,他引:2  
针对现有发情检测方法灵敏度低、识别时间长、易受外界干扰等缺点,根据大白母猪试情时双耳竖立的特征,提出一种基于卷积神经网络(Convolutional neural network, CNN)的大白母猪发情行为识别方法。首先通过采集公猪试情时发情大白母猪与未发情大白母猪的耳部图像,划分训练集样本(80%)与验证集样本(20%)用于后期训练。随后,基于AlexNet卷积神经网络构建分类模型(AlexNet_Sow),并对该模型的网络结构进行简化,简化后的模型包含2个卷积模块和2个全连接模块,选择修正线性单元(Rectified linear units, ReLU)作为激活函数,用自适应矩估计(Adaptive moment estimation, Adam)方法优化梯度下降,选择Softmax作为网络分类器,通过结合增强学习的方法对模型进行训练,得到模型应用于验证集的准确率达到99%。此外,设定了发情鉴定的时间阈值,并结合LabVIEW的Python节点用于模型应用。当公猪试情时,大白母猪双耳竖立时长达到76s时,则可判定其为发情。该方法对大白母猪发情识别的精确率、召回率与准确率分别为100%、83.33%、93.33%,平均单幅图像的检测时间为26.28ms。该方法能够实现大白母猪发情的无接触自动快速检测,准确率高,大大降低了猪只应激情况和人工成本。  相似文献   

2.
冀汶莉  刘洲  邢海花 《农业机械学报》2024,55(1):212-222,293
针对已有杂草识别模型对复杂农田环境下多种目标杂草的识别率低、模型内存占用量大、参数多、识别速度慢等问题,提出了基于YOLO v5的轻量化杂草识别方法。利用带色彩恢复的多尺度视网膜(Multi-scale retinex with color restoration,MSRCR)增强算法对部分图像数据进行预处理,提高边缘细节模糊的图像清晰度,降低图像中的阴影干扰。使用轻量级网络PP-LCNet重置了识别模型中的特征提取网络,减少模型参数量。采用Ghost卷积模块轻量化特征融合网络,进一步降低计算量。为了弥补轻量化造成的模型性能损耗,在特征融合网络末端添加基于标准化的注意力模块(Normalization-based attention module,NAM),增强模型对杂草和玉米幼苗的特征提取能力。此外,通过优化主干网络注意力机制的激活函数来提高模型的非线性拟合能力。在自建数据集上进行实验,实验结果显示,与当前主流目标检测算法YOLO v5s以及成熟的轻量化目标检测算法MobileNet v3-YOLO v5s、ShuffleNet v2-YOLO v5s比较,轻量化后杂草识别模型内存占用量为6.23MB,分别缩小54.5%、12%和18%;平均精度均值(Mean average precision,mAP)为97.8%,分别提高1.3、5.1、4.4个百分点。单幅图像检测时间为118.1ms,达到了轻量化要求。在保持较高模型识别精度的同时大幅降低了模型复杂度,可为采用资源有限的移动端设备进行农田杂草识别提供技术支持。  相似文献   

3.
随着智慧农业技术和大田种植技术的不断发展,自动除草具有广阔的市场前景。关于除草剂自动喷洒的有效性,农田杂草的精准、快速地识别和定位是关键技术之一。基于此提出一种改进的YOLOv5算法实现农田杂草检测,该方法通过改进数据增强方式,提高模型泛化性;通过添加注意力机制,增强主干网络的特征提取能力;通过改进框回归损失函数,提升预测框的准确率。试验表明,在芝麻作物和多种杂草的复杂环境下,本文方法的检测平均精度均值mAP为90.6%,杂草的检测平均精度AP为90.2%,比YOLOv5s模型分别提高4.7%和2%。在本文试验环境下,单张图像检测时间为2.8 ms,可实现实时检测。该研究内容可以为农田智能除草设备提供参考。  相似文献   

4.
为提高草莓的总产量,合理监控和防治草莓病害是有效的手段,提出一种基于改进YOLOv5的草莓病害识别算法。该检测算法以CSPDarknet作为主干特征提取网络,能够有效提高模型的性能和训练效率,并使用EIOU Loss损失函数与K-means聚类算法,来提高模型的收敛速度。同时,在模型中增加CBAM注意力机制来提高检测精度,最终构建基于改进YOLOv5的CBAM-YOLOv5l算法。试验结果表明,改进后的模型较之原始模型,在检测精度上有所提升且依然能保证高效的检测速度。另外,经过训练的CBAM-YOLOv5l目标检测算法在验证集下的总体平均精度达到96.52%,平均检测时间为27.52 ms,对比YOLOv4、YOLOv4-Tiny、Faster_R-CNN等目标检测算法,该检测算法在精度上具有更大的优势,在实际的草莓果园环境中具有良好的鲁棒性与实时性,可以满足草莓病害识别精度的需求,能够可靠地提示草莓健康状态,从而及时地实现精准施药等保护措施。  相似文献   

5.
基于卷积神经网络的草莓识别方法   总被引:6,自引:0,他引:6  
针对目前草莓识别定位大多在简单环境下进行、识别效率较低的问题,提出利用改进的YOLOv3识别方法在复杂环境中对草莓进行连续识别检测。通过训练大量的草莓图像数据集,得到最优权值模型,其测试集的精度均值(MAP)达到87. 51%;成熟草莓的识别准确率为97. 14%,召回率为94. 46%;未成熟草莓的识别准确率为96. 51%,召回率为93. 61%。在模型测试阶段,针对夜晚环境下草莓图像模糊的问题,采用伽马变换得到的增强图像较原图识别正确率有显著提升。以调和平均值(F)作为综合评价指标,对比多种识别方法在不同果实数量、不同时间段及视频测试下的实际检测结果,结果表明,YOLOv3算法F值最高,每帧图像的平均检测时间为34. 99 ms,视频的平均检测速率为58. 1 f/s,模型的识别正确率及速率均优于其他算法,满足实时性要求。同时,该方法在果实遮挡、重叠、密集等复杂环境下具有良好的鲁棒性。  相似文献   

6.
为实现加工车间刺梨果实的快速识别,提出一种基于改进的RetinaNet刺梨果实图像的识别方法。基于RetinaNet的模型,对RetinaNet框架中Focal loss的bias进行改进,使其能根据不同的情况控制bias的取值,再运用维度聚类算法找出Anchor的较好尺寸并匹配到相对应的特征层,对卷积神经网络结构进行优化。通过改进RetinaNet目标检测算法对7426幅刺梨果实图像进行检测识别,并与原始RetinaNet目标检测算法对比。试验结果表明:改进的RetinaNet网络模型识别方法对6类刺梨果实的识别率分别为99.47%、91.42%、96.92%、90.92%、96.89%和93.53%,平均识别率为94.86%;相对于原始RetinaNet目标检测算法,改进算法的识别准确率提高4.21%,单个刺梨果实检测时间由60.99 ms缩减到57.91 ms,检测时间缩短5.05%。本文改进算法对加工车间刺梨果实的识别具有较高的正确率和实用性。  相似文献   

7.
基于改进Faster R-CNN的马铃薯芽眼识别方法   总被引:3,自引:0,他引:3  
为提高对马铃薯芽眼的识别效果,提出一种基于改进Faster R-CNN的马铃薯芽眼识别方法。对Faster R-CNN中的非极大值抑制(Non maximum suppression, NMS)算法进行优化,对与M交并比(Intersection over union, IOU) 大于等于Nt的相邻检测框,利用高斯降权函数对其置信度进行衰减,通过判别参数对衰减后的置信度作进一步判断;在训练过程中加入采用优化NMS算法的在线难例挖掘 (Online hard example mining, OHEM) 技术,对马铃薯芽眼进行识别试验。试验结果表明:改进的模型识别精度为96.32%,召回率为90.85%,F1为93.51%,平均单幅图像的识别时间为0.183s。与原始的Faster R-CNN模型相比,改进的模型在不增加运行时间的前提下,精度、召回率、F1分别提升了4.65、6.76、5.79个百分点。改进Faster R-CNN模型能够实现马铃薯芽眼的有效识别,满足实时处理的要求,可为种薯自动切块中的芽眼识别提供参考。  相似文献   

8.
针对蟹味菇生产过程中更好地预估产量,对生长状态做到实时检测的问题,提出了一种基于改进YOLOv8卷积神经网络的蟹味菇识别检测方法。该方法参照PASCAL VOC数据集格式,构建了蟹味菇目标检测数据集,采用添加CBAM注意力机制对原算法进行改进,并且与Faster R-CNN、SSD(single shot multibox detector)、原始YOLOv8等算法进行模型性能的试验对比。试验结果表明,改进的算法明显优于其他算法,其在测试集上的平均精度均值(mean average precision,mAP)和检测速度分别达到95%和91帧/s。此检测精度与检测时间满足蟹味菇的实时识别检测任务,为预估蟹味菇产量,提高生产管理水平提供了理论技术支持。  相似文献   

9.
疏花是梨生产中的重要农艺措施,机械化智能疏花是当今高速发展的疏花方式,花朵与花苞的分类与检测是保证疏花机器正常工作的基本要求。本研究针对目前梨园智能化生产中出现的梨树花序检测与分类问题,提出了一种基于改进YOLOv5s的水平棚架梨园花序识别算法Ghost-YOLOv5s-BiFPN。通过对田间采集的梨树花苞与花朵图像进行标注与数据扩充后送入算法进行训练得到检测模型。Ghost-YOLOv5s-BiFPN运用加权双向特征金字塔网络(Bi-directional Feature Pyramid Network,BiFPN)替换原始的路径聚合网络(Path Aggregation Network,PAN)结构,对网络提取的不同尺寸目标特征进行有效的融合。同时运用Ghost模块替换传统卷积,在不降低准确度的同时减少模型参数量和提升设备运行效率。田间试验结果表明,改进的Ghost-YOLOv5s-BiFPN算法对梨树花序中花苞与花朵的检测精度分别为93.2%和89.4%,两种目标平均精度为91.3%,检测单张图像时间为29 ms,模型大小为7.62 M。相比于原始YOLOv5s算法,检测精度与召回度分别提升了4.2%和2.7%,检测时间和模型参数量分别降低了9 ms和46.6%。本研究提出的算法可对梨树花苞与花朵进行精确的识别和分类,为后续梨园智能化疏花的实现提供技术支持。  相似文献   

10.
基于CNN的小麦籽粒完整性图像检测系统   总被引:3,自引:0,他引:3  
为了快速、准确识别小麦籽粒的完整粒和破损粒,设计了基于卷积神经网络(CNN)的小麦籽粒完整性图像检测系统,并成功应用于实际检测中。采集完整粒和破损粒两类小麦籽粒图像,对图像进行分割、滤波等处理后,建立单粒小麦的图像数据库和形态特征数据库。采用LeNet-5、AlexNet、VGG-16和ResNet-34等4种典型卷积神经网络建立小麦籽粒完整性识别模型,并与SVM和BP神经网络所建模型进行对比。结果表明,SVM和BP神经网络所建模型的验证集识别准确率最高为92. 25%; 4种卷积神经网络模型明显优于两种传统模型,其中,识别性能最佳的AlexNet的测试集识别准确率为98. 02%,识别速率为0. 827 ms/粒。基于AlexNet模型设计了小麦籽粒完整性图像检测系统,检测结果显示,100粒小麦的检测时间为26. 3 s,其中,图像采集过程平均用时21. 2 s,图像处理与识别过程平均用时为5. 1 s,平均识别准确率为96. 67%。  相似文献   

11.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   

12.
日常行为是家畜健康状况的重要体现,在传统的行为识别方法中,通常需要人工或者依赖工具对家畜进行观察。为解决以上问题,基于YOLO v5n模型,提出了一种高效的绵羊行为识别方法,利用目标识别算法从羊圈斜上方的视频序列中识别舍养绵羊的进食、躺卧以及站立行为。首先用摄像头采集养殖场中羊群的日常行为图像,构建绵羊行为数据集;其次在YOLO v5n的主干特征提取网络中引入SE注意力机制,增强全局信息交互能力和表达能力,提高检测性能;采用GIoU损失函数,减少训练模型时的计算开销并提升模型收敛速度;最后,在Backbone主干网络中引入GhostConv卷积,有效地减少了模型计算量和参数量。实验结果表明,本研究提出的GS-YOLO v5n目标检测方法参数量仅为1.52×106,相较于原始模型YOLO v5n减少15%;浮点运算量为3.3×109,相较于原始模型减少30%;且平均精度均值达到95.8%,相比于原始模型提高4.6个百分点。改进后模型与当前主流的YOLO系列目标检测模型相比,在大幅减少模型计算量和参数量的同时,检测精度均有较高提升。在边缘设备上进行部署,达到了实时检测要求,可准确快速地对绵羊进行定位并检测。  相似文献   

13.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法。通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集。试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09%。对母猪的识别平均精度均值达95.16%,准确率达96.00%,召回率达96.00%。相较于Faster RCNN,该模型的识别速率是其7倍以上,相较于SSD,该模型的平均精度均值提高9%,说明该模型在识别速率和识别精度上都达到了较高水平。该研究可为猪只个体智能识别、数据监测及养殖信息化等提供理论依据。  相似文献   

14.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

15.
对猕猴桃产量的准确预估有利于合理安排后续采摘与运输工序,因此开发智能化的产量实时预估工具非常重要。针对大棚培育的猕猴桃矮化密植、分布范围广等特点,本研究利用果园履带小车采集视频,结合人工标注,建立猕猴桃检测和跟踪的数据集。考虑到自制数据集中猕猴桃占比小及密集分布的特点,本文提出使用YOLO v7模型加上Soft-NMS来检测每一帧图像内的猕猴桃。在卡尔曼滤波器预测的结果上,引入VGG16网络对猕猴桃进行特征提取,并结合匈牙利算法完成帧间目标的匹配。最后采用基于YOLO v7+DeepSort跟踪算法的ID计数方法对猕猴桃进行产量估计。实验结果表明,改进的YOLO v7模型在猕猴桃检测数据集上表现良好,检测的F1值为90.09%。猕猴桃跟踪数据集中使用的跟踪算法平均准确率为89.87%,每个目标正确匹配的精确率为82.34%,大型视频跟踪速度为20.19 f/s。在环境影响较小的条件下,ID计数准确率为97.49%。该方法可为猕猴桃果园智能化管理中的估产、采收规划等提供技术支撑。  相似文献   

16.
针对大田蔬菜对靶施药过程中靶标难以精准识别定位的问题,以甘蓝为研究对象,进行基于深度学习的靶标在线识别方法与模型研究。对比3种当前性能较优的目标检测模型Faster R-CNN、SSD和YOLO v5s,选择YOLO v5s作为田间甘蓝识别迁移学习模型,提出一种MobileNet v3s主干特征提取网络与深度可分离卷积融合的YOLO-mdw大田甘蓝目标识别方法,实现复杂环境下的大田甘蓝实时识别;提出一种基于卡尔曼滤波和匈牙利算法的甘蓝目标定位方法,并将模型部署于NVIDIA Xavier NX开发板上。试验结果表明,YOLO-mdw识别模型在晴天、多云、阴雨天气条件下识别准确率分别为93.14%、94.75%和94.23%,图像处理时间为54.09 ms,相对于YOLO v5s模型用时缩短26.98%;速度不大于0.6 m/s时,识别准确率达94%,平均定位误差为4.13 cm,平均甘蓝直径识别误差为1.42 cm。该靶标识别系统能在大田复杂环境下对甘蓝进行实时识别定位,为对靶施药提供技术支持。  相似文献   

17.
蛋鸭行为模式是判断笼养鸭养殖过程中健康状况及福利状态的重要指标,为了通过机器视觉实现识别蛋鸭多行为模式,提出了一种基于改进YOLO v4 (You only look once)的目标检测算法,不同的行为模式为蛋鸭的养殖管理方案提供依据。本文算法通过更换主干特征提取网络MobileNetV2,利用深度可分离卷积模块,在提升检测精度的同时降低模型参数量,有效提升检测速度。在预测输出部分引入无参数的注意力机制SimAM模块,进一步提升模型检测精度。通过使用本文算法对笼养蛋鸭行为验证集进行了检测,优化后模型平均精度均值达到96.97%,图像处理帧率为49.28 f/s,相比于原始网络模型,平均精度均值及处理速度分别提升5.03%和88.24%。与常用目标检测网络进行效果对比,改进YOLO v4网络相较于Faster R-CNN、YOLO v5、YOLOX的检测平均精度均值分别提升12.07%、30.6%及2.43%。将本文提出的改进YOLO v4网络进行试验研究,试验结果表明本文算法可以准确地对不同时段的笼养蛋鸭行为进行记录,根据蛋鸭表现出的不同行为模式来帮助识别蛋鸭的异常情况,如部分行为发...  相似文献   

18.
为实现收获后含杂马铃薯中土块石块的快速检测和剔除,提出了一种基于改进YOLO v4模型的马铃薯中土块石块检测方法。YOLO v4模型以CSPDarknet53为主干特征提取网络,在保证检测准确率的前提下,利用通道剪枝算法对模型进行剪枝处理,以简化模型结构、降低运算量。采用Mosaic数据增强方法扩充图像数据集(8621幅图像),对模型进行微调,实现了马铃薯中土块石块的检测。测试表明,剪枝后模型总参数量减少了94.37%,模型存储空间下降了187.35 MB,前向运算时间缩短了0.02 s,平均精度均值(Mean average precision, mAP)下降了2.1个百分点,说明剪枝处理可提升模型性能。为验证模型的有效性,将本文模型与5种深度学习算法进行比较,结果表明,本文算法mAP为96.42%,比Faster R-CNN、Tiny-YOLO v2、YOLO v3、SSD分别提高了11.2、11.5、5.65、10.78个百分点,比YOLO v4算法降低了0.04个百分点,模型存储空间为20.75 MB,检测速度为78.49 f/s,满足实际生产需要。  相似文献   

19.
针对油茶果体积小、分布密集、颜色多变等特点,为实现自然复杂场景下油茶果的快速精准定位,并依据果实的疏密分布,确定恰当的自动振荡采收装置夹持位置,利用YOLO v5s卷积神经网络模型,开展了自然环境下油茶果图像检测方法研究,用3 296幅油茶果图像制作PASCAL VOC的数据集,对网络进行了150轮训练,得到的最优权值模型准确率为90.73%,召回率为98.38%,综合评价指标为94.4%,平均检测精度为98.71%,单幅图像检测时间为12.7 ms,模型占内存空间为14.08 MB。与目前主流的一阶检测算法YOLO v4-tiny和RetinaNet相比,其精确率分别提高了1.99个百分点和4.50个百分点,召回率分别提高了9.41个百分点和10.77个百分点,时间分别降低了96.39%和96.25%。同时结果表明,该模型对密集、遮挡、昏暗环境和模糊虚化情况下的果实均能实现高精度识别与定位,具有较强的鲁棒性。研究结果可为自然复杂环境下油茶果机械采收及小目标检测等研究提供借鉴。  相似文献   

20.
作物病害的初期快速准确识别是减小作物经济损失的重要保障。针对实际生产环境中,作物叶片黄化曲叶病毒病(Yellow leaf curl virus,YLCV)患病初期无法应用传统图像处理算法通过颜色或纹理特征进行准确和快速识别,并且YOLO v5s通用模型在复杂环境下识别效果差和效率低的问题,本文提出一种集成改进的叶片病害检测识别方法。该方法通过对Plant Village公开数据集中单一患病叶片图像以及实际生产中手机拍摄获取的患病作物冠层图像两种来源制作数据集,并对图像中的患病叶片进行手动标注等操作,以实现在复杂地物背景和叶片遮挡等情况下正确识别目标,即在健康叶片、患病叶片、枯萎叶片、杂草和土壤中准确识别出所有的患病叶片。此外,用智能手机在生产现场拍摄图像,会存在手机分辨率、光线、拍摄角度等多种因素,会导致识别正确率降低等问题,需要对采集到的图像进行预处理和数据增强以提高模型识别率,通过对YOLO v5s原始模型骨干网络重复多次增加CA注意力机制模块(Coordinate attention),增强YOLO算法对关键信息的提取能力,利用加权双向特征金字塔网络(Bidirectional feature pyramid network,BiFPN),增强模型不同特征层的融合能力,从而提高模型的泛化能力,替换损失函数EIoU(Efficient IoU loss),进一步优化算法模型,实现多方法叠加优化后系统对目标识别性能的综合提升。在相同试验条件下,对比YOLO v5原模型、YOLO v8、Faster R-CNN、SSD等模型,本方法的精确率P、召回率R、平均识别准确率mAP0.5、mAP0.5:0.95分别达到97.40%、94.20%、97.20%、79.10%,本文所提出的算法在提高了精确率与平均精度的同时,保持了较高的运算速度,满足对作物黄化曲叶病毒病检测的准确性与时效性的要求,并为移动端智能识别作物叶片病害提供了理论基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号