首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 187 毫秒
1.
针对目前蛋鸡啄羽异常行为(包括啄和被啄)识别精度比较低的问题,提出了一种基于改进YOLO v6-tiny模型进行啄羽异常行为识别的方法。该方法通过在YOLO v6-tiny模型中引入DenseBlock结构并融入CSP结构的SPP模块(SPPCSPC)的方式,增强了YOLO v6-tiny模型的特征提取能力,扩大了模型的感受野,提升了模型的检测精度。在识别出啄羽异常行为的基础上,对如何基于异常行为发生次数,进行蛋鸡个体分类进行了研究。提出了基于YOLO v6-tiny模型进行蛋鸡个体识别,并将啄羽异常行为识别结果输入个体识别网络,进行蛋鸡个体分类的方法。同时,本文还分别对2种不同的养殖密度、一天当中3个不同的时间段,异常行为发生次数的变化规律进行了分析。实验结果表明,优化后的模型对啄和被啄异常行为的识别平均精度(AP)分别为92.86%和92.93%,分别比YOLO v6-tiny模型高1.61、1.08个百分点,比Faster R-CNN模型高3.28、4.00个百分点,比YOLO v4-tiny模型高6.15、6.63个百分点,比YOLO v5s模型高2.04、4.27个百分点,比YOLO v7-tiny模型高5.39、3.92个百分点。本文方法可以识别出啄和被啄羽异常行为,为蛋鸡异常行为的智能检测提供了技术支撑。  相似文献   

2.
为了实现复杂环境下农业机器人对番茄果实的快速准确识别,提出了一种基于注意力机制与改进YOLO v5s的温室番茄目标快速检测方法。根据YOLO v5s模型小、速度快等特点,在骨干网络中加入卷积注意力模块(CBAM),通过串联空间注意力模块和通道注意力模块,对绿色番茄目标特征给予更多的关注,提高识别精度,解决绿色番茄在相似颜色背景中难识别问题;通过将CIoU Loss替换GIoU Loss作为算法的损失函数,在提高边界框回归速率的同时提高果实目标定位精度。试验结果表明,CB-YOLO网络模型对温室环境下红色番茄检测精度、绿色番茄检测精度、平均精度均值分别为99.88%、99.18%和99.53%,果实检测精度和平均精度均值高于Faster R-CNN模型、YOLO v4-tiny模型和YOLO v5模型。将CB-YOLO模型部署到安卓手机端,通过不同型号手机测试,验证了模型在移动终端设备上运行的稳定性,可为设施环境下基于移动边缘计算的机器人目标识别及采收作业提供技术支持。  相似文献   

3.
针对鸡只个体较小、个体间存在遮挡,对蛋鸡日常行为识别造成干扰的问题,提出了一种基于SEEC-YOLO v5s的蛋鸡日常行为识别方法。通过在YOLO v5s模型输出部分添加SEAM注意力模块、在特征融合部分引入显式视觉中心模块(EVCBlock),扩大了模型的感受野,提高了模型对小个体遮挡情况下的目标识别能力,提升了模型对蛋鸡站立、采食、饮水、探索、啄羽和梳羽6种行为的识别精度。提出了一种基于视频帧数与视频帧率比值计算蛋鸡日常行为持续时间的统计方法,并对蛋鸡群体一天之中不同时间段及全天各行为变化规律进行了分析。将改进后的模型进行封装、打包,设计了蛋鸡日常行为智能识别与统计系统。试验结果表明,SEEC-YOLO v5s模型对6种行为识别的平均精度均值为84.65%,比YOLO v5s模型高2.34个百分点,对比Faster R-CNN、YOLO X-s、YOLO v4-tiny和YOLO v7-tiny模型,平均精度均值分别提高4.30、3.06、7.11、2.99个百分点。本文方法对蛋鸡的日常行为监测及健康状况分析提供了有效的支持,为智慧养殖提供了借鉴。  相似文献   

4.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   

5.
肉牛目标检测和数量统计是精细化、自动化、智能化肉牛养殖要解决的关键问题,受肉牛个体颜色及纹理相近和遮挡等因素的影响,现有肉牛目标检测方法实用性较差。本研究基于YOLO v5s网络与通道信息注意力模块(ECABasicBlock),提出了一种融合通道信息的改进YOLO v5s网络(ECA-YOLO v5s),在YOLO v5s模型的骨干特征提取网络部分添加了3层通道信息注意力模块。ECA-YOLO v5s网络实现了重度遮挡环境下多目标肉牛的准确识别。对养殖场监控视频分帧得到的肉牛图像采用了一种基于结构相似性的冗余图像剔除方法以保证数据集质量。数据集制作完成后经过300次迭代训练,得到模型的精确率为89.8%,召回率为76.9%,全类平均精度均值为85.3%,检测速度为76.9 f/s,模型内存占用量为24 MB。与YOLO v5s模型相比,ECA-YOLO v5s的精确率、召回率和平均精度均值分别比YOLO v5s高1.0、0.8、2.2个百分点。为了验证不同注意力机制应用于YOLO v5s的性能差异,本研究对比了CBAM(Convolutional block attention mo...  相似文献   

6.
随着我国畜牧业的快速发展,牛只养殖由分散性养殖逐渐向精准化养殖转变。针对分散养殖中农户无法对每头牛只健康状况给予足够关注的问题,通过分析牛只行为模式结合视觉方向特征,设计了综合管理方法来准确识别和跟踪牛只行为。首先,采用改进YOLO v8算法对牛只进行目标监测,其中,在Backbone和Neck端使用C2f-faster结构,增强模型特征提取能力;引入上采样算子CARAFE,拓宽感受视野进行数据特征融合;针对牛只幼仔检测加入BiFormer注意力机制,以识别牛只小面积特征;更换动态目标检测头DyHead,融合尺度、空间和任务感知;然后,使用Focal SIoU函数,解决正负样本分配不均衡和CIoU局限性的问题。最后,将YOLO v8检测到的行为类别信息引入BoTSORT算法中,实现在复杂场景下牛只多目标行为识别跟踪。实验结果表明,提出的FBCD-YOLO v8n(FasterNet、BiFormer、CARAFE、DyHead)模型在牛只行为数据集上,相比较YOLO v5n、YOLO v7tiny和原YOLO v8n模型的mAP@0.5分别提升3.4、3.1、2.4个百分点,尤其牛只回舔行为识别平均精度提高7.4个百分点。跟踪方面,BoTSORT算法的MOTA为96.1%,MOTP为78.6%,IDF1为98.0%,HOTA为78.9%;与ByteTrack、StrongSORT算法比,MOTA和IDF1显著提升,跟踪效果良好。研究表明,在牛舍养殖环境下,本研究构建的多目标牛只行为识别跟踪系统,可有效帮助农户监测牛只行为,为牛只的自动化精准养殖提供技术支持。  相似文献   

7.
针对自然环境下油茶果存在严重遮挡、近景色、小目标等现象,使用YOLO网络存在检测精度低、漏检现象严重等问题,提出对YOLO v8n网络进行改进。首先使用MPDIOU作为YOLO v8n的损失函数,有效解决因为果实重叠导致的漏检问题;其次调整网络,向其中加入小目标检测层,使网络能够关注小目标油茶以及被树叶遮挡的油茶;最后使用SCConv作为特征提取网络,既能兼顾检测精度又能兼顾检测速度。改进COF-YOLO v8n网络精确率、召回率、平均精度均值分别达到97.7%、97%、99%,比未改进的YOLO v8n分别提高3.2、4.8、2.4个百分点,其中严重遮挡情况下油茶检测精确率、召回率、平均精度均值分别达到 95.9%、95%、98.5%,分别比YOLO v8n提高4.0、9.1、4.6个百分点。因此改进后COF-YOLO v8n网络能够明显提高油茶在严重遮挡、近景色、小目标均存在情况下的识别精度,减小油茶的漏检。此外,模型能够实现动、静态输入条件下油茶果计数。动态计数借鉴DeepSORT算法的多目标跟踪思想,将改进后COF-YOLO v8n的识别输出作为DeepSORT的输入,实现油茶果实的追踪计数。所得改进模型具有很好的鲁棒性,且模型简单可以嵌入到边缘设备中,不仅可用于指导自动化采收,还可用于果园产量估计,为果园物流分配提供可靠借鉴。  相似文献   

8.
基于改进YOLO v5的自然环境下樱桃果实识别方法   总被引:1,自引:0,他引:1  
为提高对樱桃果实识别的准确率,提升果园自动采摘机器人的工作效率,使用采集到的樱桃原始图像以及其搭配不同数据增强方式得到的数据图像共1816幅建立数据集,按照8∶2将数据集划分成训练集与测试集。基于深度学习网络,利用YOLO v5模型分别对不同数据增强方式以及组合增强方式扩增后的樱桃数据集进行识别检测,结果表明离线增强与在线增强均对模型精度提升有一定的正向促进作用,其中采用离线数据增强策略能够显著且稳定的增加检测精度,在线数据增强策略能够小幅度提高检测精度,同时使用离线增强以及在线增强能够最大幅度的提升平均检测精度。针对樱桃果实之间相互遮挡以及图像中的小目标樱桃检测难等导致自然环境下樱桃果实检测精度低的问题,本文将YOLO v5的骨干网络进行改动,增添具有注意力机制的Transformer模块,Neck结构由原来的PAFPN改成可以进行双向加权融合的BiFPN,Head结构增加了浅层下采样的P2模块,提出一种基于改进YOLO v5的自然环境下樱桃果实的识别网络。实验结果表明:相比于其他已有模型以及单一结构改进后的YOLO v5模型,本文提出的综合改进模型具有更高的检测精度,使平均精度均值2提高了29个百分点。结果表明该方法有效的增强了识别过程中特征融合的效率和精度,显著地提高了樱桃果实的检测效果。同时,本文将训练好的网络模型部署到安卓(Android)平台上。该系统使用简洁,用户设备环境要求不高,具有一定的实用性,可在大田环境下对樱桃果实进行准确检测,能够很好地满足实时检测樱桃果实的需求,也为自动采摘等实际应用奠定了基础。  相似文献   

9.
芽眼检测是马铃薯种薯智能切块首先要解决的问题,为实现种薯芽眼精准高效检测,提出了一种基于改进YOLO v5s的马铃薯种薯芽眼检测方法。首先通过加入CBAM注意力机制,加强对马铃薯种薯芽眼图像的特征学习和特征提取,同时弱化与芽眼相似的马铃薯种薯表面背景对检测结果的影响。其次引入加权双向特征金字塔BiFPN增加经骨干网络提取的种薯芽眼原始信息,为不同尺度特征图赋予不同权重,使得多尺度特征融合更加合理。最后替换为改进的高效解耦头Decoupled Head区分回归和分类,加快模型收敛速度,进一步提升马铃薯种薯芽眼检测性能。试验结果表明,改进YOLO v5s模型准确率、召回率和平均精度均值分别为93.3%、93.4%和95.2%;相比原始YOLO v5s模型,平均精度均值提高3.2个百分点,准确率、召回率分别提高0.9、1.7个百分点;不同模型对比分析表明,改进YOLO v5s模型与Faster R-CNN、YOLO v3、YOLO v6、YOLOX和YOLO v7等模型相比有着较大优势,平均精度均值分别提高8.4、3.1、9.0、12.9、4.4个百分点。在种薯自动切块芽眼检测试验中,改进Y...  相似文献   

10.
鸡群计数是鸡场资产评估中一项非常重要的工作。目前鸡场采用的人工计数方法,存在效率低下且计数准确度不稳定的问题。针对此问题,本文提出了一种基于改进YOLO v5s的蛋鸡个体识别与计数的方法。该方法为了消除真实复杂环境下产蛋箱、食槽等设施对蛋鸡个体识别带来的干扰,在YOLO v5s模型的Neck部分引入了SimAM注意力机制;为了扩大模型感受野,解决蛋鸡个体较小、识别困难的问题,将YOLO v5s模型的SPPF(空间金字塔池化模块)改为了SPPCSPC模块;为了尽可能多地提取蛋鸡有效特征,通过在YOLO v5s的Neck结构添加自适应特征融合模块ASFF,将不同尺度的蛋鸡成像特征信息进行融合的方法,进一步提升了模型的检测精度。在此基础上,通过调用模型检测接口,在接口内部添加计数函数、统计目标数量的方法,实现了蛋鸡个体的计数和鸡舍饲养密度的计算。将改进后的模型通过PyQt工具包进行封装、打包,开发了蛋鸡个体识别与自动计数系统。实验结果表明,改进的YOLO v5s模型的精准率、召回率、平均精度均值分别为89.91%、79.24%、87.53%,较YOLO v5s模型分别提高2.37、2.55、...  相似文献   

11.
为实现作物病害早期识别,本文提出一种基于红外热成像和改进YOLO v5的作物病害早期检测模型,以CSPD-arknet为主干特征提取网络,YOLO v5 stride-2卷积替换为SPD-Conv模块,分别为主干网络中的5个stride-2卷积层和Neck中的2个stride-2卷积层,可以提高其准确性,同时保持相同级别的参数大小,并向下阶段输出3个不同尺度的特征层;为增强建模通道之间的相互依赖性,自适应地重新校准通道特征响应,引入SE机制提升特征提取能力;为减少模型计算量,提高模型速度,引入SPPF。经测试,改进后YOLO v5网络检测性能最佳,mAP为95.7%,相比YOLO v3、YOLO v4、SSD和YOLO v5网络分别提高4.7、8.8、19.0、3.5个百分点。改进后模型相比改进前对不同温度梯度下的作物病害检测也有提高,5个梯度mAP分别为91.0%、91.6%、90.4%、92.6%和94.0%,分别高于改进前3.6、1.5、7.2、0.6、0.9个百分点。改进YOLO v5网络内存占用量为13.755MB,低于改进前基础模型3.687MB。结果表明,改进YOLO v5可以准确快速地实现病害早期检测。  相似文献   

12.
基于DeepSORT算法的肉牛多目标跟踪方法   总被引:1,自引:0,他引:1  
肉牛的运动行为反映其健康状况,在实际养殖环境下如何识别肉牛并对其进行跟踪,对感知肉牛的运动行为至关重要。基于YOLO v3改进算法(LSRCEM-YOLO),利用视频监控实现了实际养殖环境下的肉牛实时跟踪。该方法采用MobileNet v2作为目标检测骨干网络,根据肉牛分布不均、目标尺度变化较大的特点,提出通过添加长短距离语义增强模块(LSRCEM)进行多尺度融合,结合Mudeep重识别模型实现了肉牛多目标跟踪。结果表明:在目标检测方面,LSRCEM-YOLO的mAP值达到了92.3%,模型参数量仅为YOLO v3的10%,相比YOLO v3-tiny也降低了31.34%;在肉牛重识别方面,采用基于调整感受野的Mudeep模型,获得了更多的多尺度特征,其Rank-1指标达到了96.5%;多目标跟踪的多目标跟踪准确率相对于DeepSORT算法从32.3%提高到了45.2%,ID switch次数降低了69.2%。本文方法可为实际环境下的肉牛行为实时跟踪、行为感知提供技术参考。  相似文献   

13.
基于改进YOLO v3的自然场景下冬枣果实识别方法   总被引:4,自引:0,他引:4  
为实现自然场景下冬枣果实的快速、精准识别,考虑到光线变化、枝叶遮挡、果实密集重叠等复杂因素,基于YOLO v3深度卷积神经网络提出了一种基于改进YOLO v3(YOLO v3-SE)的冬枣果实识别方法。YOLO v3-SE模型利用SE Net 的SE Block结构将特征层的特征权重校准为特征权值,强化了有效特征,弱化了低效或无效特征,提高了特征图的表现能力,从而提高了模型识别精度。YOLO v3-SE模型经过训练和比较,选取0.55作为置信度最优阈值用于冬枣果实检测,检测结果准确率P为88.71%、召回率R为83.80%、综合评价指标F为86.19%、平均检测精度为82.01%,与YOLO v3模型相比,F提升了2.38个百分点,mAP提升了4.78个百分点,检测速度无明显差异。为检验改进模型在冬枣园自然场景下的适应性,在光线不足、密集遮挡和冬枣不同成熟期的情况下对冬枣果实图像进行检测,并与YOLO v3模型的检测效果进行对比,结果表明,本文模型召回率提升了2.43~5.08个百分点,F提升了1.75~2.77个百分点,mAP提升了2.38~4.81个百分点,从而验证了本文模型的有效性。  相似文献   

14.
甜椒在生长发育过程中容易产生畸形果,机器代替人工对甜椒畸形果识别和摘除一方面可提高甜椒品质和产量,另一方面可解决当前人工成本过高、效率低下等问题。为实现机器人对甜椒果实的识别,提出了一种基于改进YOLO v7-tiny目标检测模型,用于区分正常生长和畸形生长的甜椒果实。将无参数注意力机制(Parameter free attention module, SimAM)融合到骨干特征提取网络中,增强模型的特征提取和特征整合能力;用Focal-EIOU(Focal and efficient intersection over union)损失替换原损失函数CIOU(Complete intersection over union),加快模型收敛并降低损失值;使用SiLU激活函数代替原网络中的Leaky ReLU,增强模型的非线性特征提取能力。试验结果表明,改进后的模型整体识别精确度、召回率、平均精度均值(Mean average precision, mAP)mAP0.5、mAP0.5-0.95分别为99.1%、97.8%、98.9%、94.5%,与改进前相比,分别提升5.4、4.7、2.4、10.7个百分点,模型内存占用量为 10.6MB,单幅图像检测时间为4.2ms。与YOLO v7、Scaled-YOLO v4、YOLOR-CSP等目标检测模型相比,模型在F1值上与YOLO v7相同,相比Scaled-YOLO v4、YOLOR-CSP分别提升0.7、0.2个百分点,在mAP0.5-0.95上分别提升0.6、1.2、0.2个百分点,而内存占用量仅为上述模型的14.2%、10.0%、10.0%。本文所提出的模型实现了小体量而高精度,便于在移动端进行部署,为后续机械化采摘和品质分级提供技术支持。  相似文献   

15.
日常行为是家畜健康状况的重要体现,在传统的行为识别方法中,通常需要人工或者依赖工具对家畜进行观察。为解决以上问题,基于YOLO v5n模型,提出了一种高效的绵羊行为识别方法,利用目标识别算法从羊圈斜上方的视频序列中识别舍养绵羊的进食、躺卧以及站立行为。首先用摄像头采集养殖场中羊群的日常行为图像,构建绵羊行为数据集;其次在YOLO v5n的主干特征提取网络中引入SE注意力机制,增强全局信息交互能力和表达能力,提高检测性能;采用GIoU损失函数,减少训练模型时的计算开销并提升模型收敛速度;最后,在Backbone主干网络中引入GhostConv卷积,有效地减少了模型计算量和参数量。实验结果表明,本研究提出的GS-YOLO v5n目标检测方法参数量仅为1.52×106,相较于原始模型YOLO v5n减少15%;浮点运算量为3.3×109,相较于原始模型减少30%;且平均精度均值达到95.8%,相比于原始模型提高4.6个百分点。改进后模型与当前主流的YOLO系列目标检测模型相比,在大幅减少模型计算量和参数量的同时,检测精度均有较高提升。在边缘设备上进行部署,达到了实时检测要求,可准确快速地对绵羊进行定位并检测。  相似文献   

16.
为了能准确检测、跟踪加州鲈鱼因水中溶解氧含量低产生的胁迫行为,本文构建了一种改进的YOLO v5与DeepSORT组合网络算法。在算法方面提出2个改进方案:在原YOLO v5的Backbone和Neck中分别加入2个基于移位窗口的自注意力Swin Transformer模块,提升了网络对目标特征信息的提取能力,以此提升原模型的检测效果;采用Warmup和Cosine Annealing结合的学习率策略,使多目标跟踪算法DeepSORT前期收敛速度更快、更稳定。实验结果表明,在目标检测方面,相对于原YOLO v5,改进的YOLO v5的mAP@0.5、mAP@0.5:0.95和召回率分别提升1.9、1.3、0.8个百分点,在不完全遮挡情况下,改进的算法表现出更好的检测效果。在目标跟踪方面,DeepSORT算法的MOTA、MOTP和IDF1分别提升4.0、0.7、10.7个百分点,并且加州鲈鱼在遮挡前后的ID切换频率得到明显抑制。改进的YOLO v5与DeepSORT跟踪算法更适合于检测、跟踪加州鲈鱼的低氧胁迫行为,能够为加州鲈鱼的养殖提供技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号