首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 140 毫秒
1.
基于改进YOLO v3模型的挤奶奶牛个体识别方法   总被引:3,自引:0,他引:3  
为实现无接触、高精度养殖场环境下奶牛个体的有效识别,提出了基于改进YOLO v3深度卷积神经网络的挤奶奶牛个体识别方法。首先,在奶牛进、出挤奶间的通道上方安装摄像机,定时、自动获取奶牛背部视频,并用视频帧分解技术得到牛背部图像;用双边滤波法去除图像噪声,并用像素线性变换法增强图像亮度和对比度,通过人工标注标记奶牛个体编号;为适应复杂环境下的奶牛识别,借鉴Gaussian YOLO v3算法构建了优化锚点框和改进网络结构的YOLO v3识别模型。从89头奶牛的36790幅背部图像中,随机选取22074幅为训练集,其余图像为验证集和测试集。识别结果表明,改进YOLO v3模型的识别准确率为95.91%,召回率为95.32%,mAP为95.16%, IoU为85.28%,平均帧率为32f/s,识别准确率比YOLO v3高0.94个百分点,比Faster R-CNN高1.90个百分点,检测速度是Faster R-CNN的8倍,背部为纯黑色奶牛的F1值比YOLO v3提高了2.75个百分点。本文方法具有成本低、性能优良的特点,可用于养殖场复杂环境下挤奶奶牛个体的实时识别。  相似文献   

2.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   

3.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   

4.
基于改进YOLO v3模型的奶牛发情行为识别研究   总被引:1,自引:0,他引:1  
为提高复杂环境下奶牛发情行为识别精度和速度,提出了一种基于改进YOLO v3模型的奶牛发情行为识别方法。针对YOLO v3模型原锚点框尺寸不适用于奶牛数据集的问题,对奶牛数据集进行聚类,并对获得的新锚点框尺寸进行优化;针对因数据集中奶牛个体偏大等原因而导致模型识别准确率低的问题,引入DenseBlock结构对YOLO v3模型原特征提取网络进行改进,提高了模型识别性能;将YOLO v3模型原边界框损失函数使用均方差(MSE)作为损失函数度量改为使用FIoU和两框中心距离Dc度量,提出了新的边界框损失函数,使其具有尺度不变性。从96段具有发情爬跨行为的视频片段中各选取50帧图像,根据发情爬跨行为在活动区出现位置的不确定性和活动区光照变化的特点,对图像进行水平翻转、±15°旋转、随机亮度增强(降低)等数据增强操作,用增强后的数据构建训练集和验证集,对改进后的模型进行训练,并依据F1、mAP、准确率P和召回率R指标进行模型优选。在测试集上的试验表明,本文方法模型的识别准确率为99.15%,召回率为97.62%,且处理速度达到31f/s,能够满足复杂养殖环境、全天候条件下奶牛发情行为的准确、实时识别。  相似文献   

5.
基于优化Faster R-CNN的棉花苗期杂草识别与定位   总被引:2,自引:0,他引:2  
为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化Faster R-CNN和数据增强的杂草识别与定位方法。采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对Faster R-CNN模型设计合适的锚尺度,对比VGG16、VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s,平均识别精确率为94.21%。在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法——YOLO算法和SSD算法进行对比,优化后的Faster R-CNN模型具有明显优势。将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s,说明本文方法具有一定的适用性和可推广性。  相似文献   

6.
山羊的脸部检测对羊场的智能化管理有着重要的意义。针对实际饲养环境中,羊群存在多角度、分布随机、灵活多变、羊脸检测难度大的问题,以YOLO v5s为基础目标检测网络,提出了一种结合坐标信息的山羊脸部检测模型。首先,通过移动设备获取舍内、舍外、单头以及多头山羊的图像并构建数据集。其次,在YOLO v5s的主干网络融入坐标注意力机制,以充分利用目标的位置信息,提高遮挡区域、小目标、多视角样本的检测精度。试验结果表明,改进YOLO v5s模型的检测精确率为95.6%,召回率为83.0%,mAP0.5为90.2%,帧速率为69 f/s,模型内存占用量为13.2 MB;与YOLO v5s模型相比,检测精度提高1.3个百分点,模型所占内存空间减少1.2 MB;且模型的整体性能远优于Faster R-CNN、YOLO v4、YOLO v5s模型。此外,本文构建了不同光照和相机抖动的数据集,来进一步验证本文方法的可行性。改进后的模型可快速有效地对复杂场景下山羊的脸部进行精准检测及定位,为动物精细化养殖时目标检测识别提供了检测思路和技术支持。  相似文献   

7.
为实现收获后含杂马铃薯中土块石块的快速检测和剔除,提出了一种基于改进YOLO v4模型的马铃薯中土块石块检测方法。YOLO v4模型以CSPDarknet53为主干特征提取网络,在保证检测准确率的前提下,利用通道剪枝算法对模型进行剪枝处理,以简化模型结构、降低运算量。采用Mosaic数据增强方法扩充图像数据集(8621幅图像),对模型进行微调,实现了马铃薯中土块石块的检测。测试表明,剪枝后模型总参数量减少了94.37%,模型存储空间下降了187.35 MB,前向运算时间缩短了0.02 s,平均精度均值(Mean average precision, mAP)下降了2.1个百分点,说明剪枝处理可提升模型性能。为验证模型的有效性,将本文模型与5种深度学习算法进行比较,结果表明,本文算法mAP为96.42%,比Faster R-CNN、Tiny-YOLO v2、YOLO v3、SSD分别提高了11.2、11.5、5.65、10.78个百分点,比YOLO v4算法降低了0.04个百分点,模型存储空间为20.75 MB,检测速度为78.49 f/s,满足实际生产需要。  相似文献   

8.
为实现香梨自动化采摘,本文以YOLO v7-S为基础模型,针对果园中香梨果实、果叶和枝干之间相互遮挡,不易精准检测的问题,设计了一种轻量化香梨目标检测M-YOLO v7-SCSN+F模型。该模型采用MobileNetv3作为骨干特征提取网络,引入协同注意力机制(Coordinate attention,CA)模块,将YOLO v7-S中的损失函数CIoU替换为SIoU,并联合Normalized Wasserstein distance (NWD)小目标检测机制,以增强网络特征表达能力和检测精度。基于傅里叶变换(Fourier transform,FT)的数据增强方法,通过分析图像频域信息和重建图像振幅分量生成新的图像数据,从而提高模型泛化能力。实验结果表明,改进的M-YOLO v7-SCSN+F模型在验证集上的平均精度均值(mAP)、精确率和召回率分别达到97.23%、97.63%和93.66%,检测速度为69.39f/s,与Faster R-CNN、SSD、YOLO v3、YOLO v4、YOLO v5s、YOLO v7-S、YOLO v8n、RT-DETR-R50模型在验证集上进行性能比较,其平均精度均值(mAP)分别提高14.50、26.58、3.88、2.40、1.58、0.16、0.07、0.86个百分点。此外,改进的M-YOLO v7-SCSN+F模型内存占用量与YOLO v8n和RT-DETR-R50检测模型对比减少16.47、13.30MB。本文提出的检测模型对成熟期香梨具有很好的目标检测效果,为背景颜色相近小目标检测提供参考,可为香梨自动化采摘提供有效的技术支持。  相似文献   

9.
针对草原蝗虫图像具有样本收集困难、目标较小和目标多尺度等技术难点,基于YOLO v5网络,提出了一种复杂背景下多尺度蝗虫目标检测识别模型YOLO v5-CB,用于宁夏草原常见蝗虫检测。改进模型YOLO v5-CB针对蝗虫原始样本量较少的问题,使用CycleGAN网络扩充蝗虫数据集;针对蝗虫图像中的小目标特征,使用ConvNeXt来保留小目标蝗虫的特征;为有效解决蝗虫图像尺度特征变换较大问题,在颈部特征融合使用Bi-FPN结构,来增强网络对多尺度目标的特征融合能力。实验结果表明,在对宁夏草原常见亚洲小车蝗、短星翅蝗、中华剑角蝗进行检测识别时,YOLO v5-CB的识别精度可达98.6%,平均精度均值达到96.8%,F1值为98%,与Faster R-CNN、YOLO v3、YOLO v4、YOLO v5模型相比,识别精度均有提高。将改进的蝗虫检测识别模型YOLO v5-CB与研发的分布式可扩展生态环境数据采集系统结合,构建了基于4G网络的Web端蝗虫识别平台,可对观测点的蝗虫图像进行长期实时检测。目前,该平台已在宁夏回族自治区盐池县大水坑、黄记场、麻黄山等地的草原生态环境数据获取中得到了应用,可对包括宁夏草原蝗虫信息在内的多种生态环境信息进行长期检测和跟踪,为虫情防治等提供决策依据。  相似文献   

10.
针对苹果采摘机器人识别算法包含复杂的网络结构和庞大的参数体量,严重限制检测模型的响应速度问题,本文基于嵌入式平台,以YOLO v4作为基础框架提出一种轻量化苹果实时检测方法(YOLO v4-CA)。该方法使用MobileNet v3作为特征提取网络,并在特征融合网络中引入深度可分离卷积,降低网络计算复杂度;同时,为弥补模型简化带来的精度损失,在网络关键位置引入坐标注意力机制,强化目标关注以提高密集目标检测以及抗背景干扰能力。在此基础上,针对苹果数据集样本量小的问题,提出一种跨域迁移与域内迁移相结合的学习策略,提高模型泛化能力。试验结果表明,改进后模型的平均检测精度为92.23%,在嵌入式平台上的检测速度为15.11f/s,约为改进前模型的3倍。相较于SSD300与Faster R-CNN,平均检测精度分别提高0.91、2.02个百分点,在嵌入式平台上的检测速度分别约为SSD300和Faster R-CNN的1.75倍和12倍;相较于两种轻量级目标检测算法DY3TNet与YOLO v5s,平均检测精度分别提高7.33、7.73个百分点。因此,改进后的模型能够高效实时地对复杂果园环境中的苹果进行检测,适宜在嵌入式系统上部署,可以为苹果采摘机器人的识别系统提供解决思路。  相似文献   

11.
蛋鸭行为模式是判断笼养鸭养殖过程中健康状况及福利状态的重要指标,为了通过机器视觉实现识别蛋鸭多行为模式,提出了一种基于改进YOLO v4 (You only look once)的目标检测算法,不同的行为模式为蛋鸭的养殖管理方案提供依据。本文算法通过更换主干特征提取网络MobileNetV2,利用深度可分离卷积模块,在提升检测精度的同时降低模型参数量,有效提升检测速度。在预测输出部分引入无参数的注意力机制SimAM模块,进一步提升模型检测精度。通过使用本文算法对笼养蛋鸭行为验证集进行了检测,优化后模型平均精度均值达到96.97%,图像处理帧率为49.28 f/s,相比于原始网络模型,平均精度均值及处理速度分别提升5.03%和88.24%。与常用目标检测网络进行效果对比,改进YOLO v4网络相较于Faster R-CNN、YOLO v5、YOLOX的检测平均精度均值分别提升12.07%、30.6%及2.43%。将本文提出的改进YOLO v4网络进行试验研究,试验结果表明本文算法可以准确地对不同时段的笼养蛋鸭行为进行记录,根据蛋鸭表现出的不同行为模式来帮助识别蛋鸭的异常情况,如部分行为发...  相似文献   

12.
基于YOLO v7-ECA模型的苹果幼果检测   总被引:1,自引:0,他引:1  
为实现自然环境下苹果幼果的快速准确检测,针对幼果期苹果果色与叶片颜色高度相似、体积微小、分布密集,识别难度大的问题,提出了一种融合高效通道注意力(Efficient channel attention, ECA)机制的改进YOLO v7模型(YOLO v7-ECA)。在模型的3条重参数化路径中插入ECA机制,可在不降低通道维数的前提下实现相邻通道局部跨通道交互,有效强调苹果幼果重要信息、抑制冗余无用特征,提高模型效率。采集自然环境下苹果幼果图像2 557幅作为训练样本、547幅作为验证样本、550幅作为测试样本,输入模型进行训练测试。结果表明,YOLO v7-ECA网络模型准确率为97.2%、召回率为93.6%、平均精度均值(Mean average precision, mAP)为98.2%、F1值为95.37%。与Faster R-CNN、SSD、Scaled-YOLO v4、YOLO v5、YOLO v6、YOLO v7网络模型相比,其mAP分别提高15.5、4.6、1.6、1.8、3.0、1.8个百分点,准确率分别提高49.7、0.9、18.5、1.2、0.9、1.0个百分点,...  相似文献   

13.
基于深度学习目标测定的大蒜收获切根装置设计与试验   总被引:1,自引:0,他引:1  
为研究适用于大蒜联合收获的智能化切根装置,提出了基于机器视觉的非接触式定位切根方法,设计了一种基于深度卷积神经网络的大蒜切根试验台.试验台采用深度学习的方法,对采集到的图像进行目标检测,利用APP完成人机交互和结果显示,由深度卷积神经网络给定切根的切入位置,电机控制系统自动调整定位双圆盘切根刀完成切根处理.目标比较试验...  相似文献   

14.
王玲  张旗  冯天赐  王一博  李雨桐  陈度 《农业机械学报》2023,54(10):188-197,204
针对小麦考种过程中籽粒堆积、粘连和遮挡现象导致计数准确率低等问题,本文基于电磁振动原理设计了高通量小麦籽粒振动分离装置,通过分析受力探讨了籽粒离散分离程度的主要影响因素,并引入二阶离散系数建立了籽粒离散度等级评价方法。在此基础上,引入Swin Transformer模块构建YOLO v7-ST模型,对不同离散度等级下小麦籽粒进行计数性能测试。试验结果表明,YOLO v7-ST模型在3种离散度等级下平均计数准确率、F1值和平均计数时间的总平均值分别为99.16%、93%和1.19 s,相较于YOLO v7、YOLO v5和Faster R-CNN模型,平均计数准确率分别提高1.03、2.34、15.44个百分点,模型综合评价指标F1值分别提高2、3、16个百分点,平均计数时间较YOLO v5和Faster R-CNN分别减少0.41 s和0.36 s,仅比YOLO v7模型增大0.09 s。因此,YOLO v7-ST模型可实现多种离散度等级下不同程度籽粒遮挡和粘连问题的准确快速检测,大幅提高小麦考种效率。  相似文献   

15.
为实时准确地检测到自然环境下背景复杂的荔枝病虫害,本研究构建荔枝病虫害图像数据集并提出荔枝病虫害检测模型以提供诊断防治。以YOLO v4为基础,使用更轻、更快的轻量化网络GhostNet作为主干网络提取特征,并结合GhostNet中的核心设计引入更低成本的卷积Ghost Module代替颈部结构中的传统卷积,得到轻量化后的YOLO v4-G模型。在此基础上使用新特征融合方法和注意力机制CBAM对YOLO v4-G进行改进,在不失检测速度和模型轻量化程度的情况下提高检测精度,提出YOLO v4-GCF荔枝病虫害检测模型。构建的数据集包含荔枝病虫害图像3725幅,其中病害种类包括煤烟病、炭疽病和藻斑病3种,虫害种类包括毛毡病和叶瘿蚊2种。试验结果表明,基于YOLO v4-GCF的荔枝病虫害检测模型,对于5种病虫害目标在训练集、验证集和测试集上的平均精度分别为95.31%、90.42%和89.76%,单幅图像检测用时0.1671s,模型内存占用量为39.574MB,相比改进前的YOLO v4模型缩小84%,检测速度提升38%,在测试集中检测平均精度提升4.13个百分点,同时平均精度比常用模型YOLO v4-tiny、EfficientDet-d2和Faster R-CNN分别高17.67、12.78、25.94个百分点。所提出的YOLO v4-GCF荔枝病虫害检测模型能够有效抑制复杂背景的干扰,准确且快速检测图像中荔枝病虫害目标,可为自然环境下复杂、非结构背景的农作物病虫害实时检测研究提供参考。  相似文献   

16.
基于Faster R-CNN的松材线虫病受害木识别与定位   总被引:2,自引:0,他引:2  
松材线虫病是一种毁灭性松树传染病,其传播速度快、发病时间短、致病力强,及时发现、确定受害木的位置,并采取安全处理措施是目前控制松材线虫病蔓延的有效手段。本文通过小型无人机搭载可见光RGB数码相机获取超高空间分辨率影像,采用Faster R-CNN目标检测算法实现对染病变色松树的自动识别,与传统受害木识别方法不同,本文考虑了其他枯死树和红色阔叶树对受害木识别的影响。实验结果表明,根据受害木的冠幅大小修改区域生成网络中的锚框(anchor)尺寸,并考虑其他枯死树和红色阔叶树的影响,有利于提高受害木识别效果和检测精度。改进后受害木识别总体精度从75.64%提高到82.42%,提高了6.78个百分点,能够满足森林防护人员对受害木定位处理的需求。通过坐标转换的方式得到受害木的精确位置信息与空间分布情况,结合点位合并过程,最终正确定位出494棵受害木。本文通过无人机遥感结合目标检测算法能监测松材线虫病的发生和获取受害木的分布情况,可为松材线虫病的防控提供技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号