排序方式: 共有29条查询结果,搜索用时 375 毫秒
1.
为准确实时跟踪羊只目标,进行疾病异常预警,实现奶山羊精细化养殖,本文基于DiMP跟踪模型,利用奶山羊跟踪对象单一且图像样本丰富的特点,结合迁移学习和类特定融合方法,设计了一种类特定的奶山羊目标跟踪模型,能够有效克服DiMP算法在跟踪类特定目标时定位精度不足的缺点。利用构建的奶山羊视频跟踪数据训练集对跟踪算法进行迁移训练,加快模型收敛速度,使评估网络预测出的边界框更贴合奶山羊真实框的位置和尺寸。在线跟踪阶段,针对目标模板仅采用第1帧特征制作整个序列的调制向量,导致该调制向量相对整个跟踪阶段特征不具代表性,与后续帧差异大的缺点,使用训练集制作包含奶山羊各种姿态的类调制向量,以指数消融方式更新奶山羊类调制向量与第1帧调制向量间的比重,增强边界框回归任务中的奶山羊特征与背景的判别性。提出的算法在测试集上的AUC(Area under curve)和精准度(Precision)分别为76.20%和60.19%,比DiMP方法分别提升6.17、14.18个百分点,跟踪速度为30 f/s,满足实时跟踪的要求。实验结果表明,提出的类特定奶山羊目标跟踪方法可用于监测复杂场景下奶山羊的运动,为奶山羊精细化... 相似文献
2.
基于卷积注意力的无人机多光谱遥感影像地膜农田识别 总被引:1,自引:0,他引:1
监测地膜覆盖农田的分布对准确评估由其导致的区域气候和生态环境变化有着重要作用,基于DeepLabv3+网络,通过学习面向地膜语义分割的通道注意力和空间注意力特征,提出一种适用于判断农田是否覆膜的改进深度语义分割模型,实现对无人机多光谱遥感影像中地膜农田的有效分割。以内蒙古自治区河套灌区西部解放闸灌区中沙壕渠灌域2018—2019年4块实验田的无人机多光谱遥感影像为研究数据,与可见光遥感影像的识别结果进行对比,同时考虑不同年份地膜农田表观的变化,设计了2组实验方案,分别用于验证模型的泛化性能和增强模型的分类精度。结果表明,改进的DeepLabv3+语义分割模型对多光谱遥感影像的识别效果比可见光高7.1个百分点。同时考虑地膜农田表观变化的深度语义分割模型具有更高的分类精度,其平均像素精度超出未考虑地膜农田表观变化时7.7个百分点,表明训练数据的多样性有助于提高地膜农田的识别精度。其次,改进的DeepLabv3+语义分割模型能够自适应学习地膜注意力,在2组实验中,分类精度均优于原始的DeepLabv3+模型,表明注意力机制能够增加深度语义分割模型的自适应性,从而提升分类精度。本文提出的方法能够从复杂的场景中精准识别地膜农田。 相似文献
3.
4.
基于遗传神经网络的苹果综合分级系统 总被引:11,自引:1,他引:11
充分利用计算机视觉和人工神经网络技术 ,建立了一个苹果综合外观品质检测与分级系统 ,实现了对苹果的正确分级 ,正确识别率可达 90 .8%。还借助于遗传算法对 BP网络进行设计 ,提高了其学习速度。 相似文献
5.
6.
7.
8.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。 相似文献
9.
10.
单位面积麦穗数是估算小麦产量的重要指标,对于作物表型参数计算、产量预测和大田管理都具有重要的意义。目前的研究均未以单位面积麦穗图像为研究对象,为准确获取单位面积麦穗数,该研究提出了基于改进YOLOX的单位面积麦穗检测方法,利用采样框直接实现单位面积麦穗计数。首先,设计了一种简单的单位面积采样框,通过训练角点检测网络识别采样框,以提取单位面积小麦区域;其次,针对麦穗检测中存在的目标密集和相互遮挡问题,在麦穗检测网络的特征融合层,采用上下文信息进行特征重组的上采样方法(Content-Aware ReAssembly of Features,CARAFE)代替YOLOX-m模型中的上采样算法,同时结合迭代注意力特征融合模块(iterative Attentional Feature Fusion,iAFF),增加对麦穗空间信息和语义信息的提取。试验结果表明,改进的YOLOX-m模型明显改善了对密集麦穗和遮挡麦穗的检测效果,其精确率、召回率、平均精确度和F1值分别为96.83%、91.29%、92.29%和93.97%,与SSD、CenterNet和原YOLOX-m模型相比,平均精确度分别提升了10.26、8.2和1.14个百分点。该研究方法能够直接对复杂大田场景下的单位面积麦穗进行准确检测和计数,为实际生产小麦产量预测中的麦穗智能化计数提供了一种方法参考。 相似文献