首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6篇
  免费   1篇
  国内免费   2篇
基础科学   5篇
  2篇
综合类   2篇
  2024年   1篇
  2023年   4篇
  2022年   4篇
排序方式: 共有9条查询结果,搜索用时 16 毫秒
1
1.
基于Swin Transformer模型的玉米生长期分类   总被引:1,自引:1,他引:0  
快速准确识别玉米生长的不同阶段,对于玉米种植周期的高效精准管理具有重要意义。针对大田环境下玉米生长阶段分类辨识易受复杂背景、户外光照等因素影响的问题,该研究采用无人机获取玉米不同生长阶段的图像信息,以苗期、拔节期、小喇叭口期、大喇叭口期4个生长阶段为对象,利用Swin Transformer模型引入迁移学习实现玉米不同生长阶段的快速识别。首先结合玉米垄面走向特性,将训练集旋转8次用以扩充数据集;为探究各模型在非清晰数据集上的表现,采用高斯模糊方法将测试集转换6次;最后以AlexNet,VGG16,GoogLeNet做为对比,评估Swin-T模型性能。试验结果表明,Swin-T模型在原始测试集的总体准确率为98.7%,相比于AlexNet,VGG16,GoogLeNet模型分别高出6.9、2.7和2.0个百分点;在错误分类中,大喇叭口期和小喇叭口期由于冠层特征相似,造成识别错误的概率最大;在非清晰数据集下,AlexNet,VGG16,GoogLeNet模型精度总体退化指数分别为12.4%、10.4%和15.0%,Swin-T模型总体退化指数为8.31%,并且退化均衡度、平均退化指数、最大退化准确率均表现最佳。研究结果表明:在分类精度、模糊图像输入等方面,Swin-T模型能够较好地满足实际生产中,玉米不同生长阶段分类识别的实际需求,可为玉米生长阶段的智能化监测提供技术支撑。  相似文献   
2.
为使巡检机器人能够对体积小且密集、形态多变、数量多且分布不均的害虫进行高效精准识别,提出了一种基于改进YOLO v7的害虫识别方法。该方法将CSP Bottleneck与基于移位窗口Transformer(Swin Transformer)自注意力机制相结合,提高了模型获取密集害虫目标位置信息的能力;在路径聚合部分增加第4检测支路,提高模型对小目标的检测性能;将卷积注意力模块(CBAM)集成到YOLO v7模型中,使模型更加关注害虫区域,抑制背景等一般特征信息,提高被遮挡害虫的识别精确率;使用Focal EIoU Loss损失函数减少正负样本不平衡对检测结果的影响,提高识别精度。采用基于实际农田环境建立的数据集的实验结果表明,改进后算法的精确率、召回率及平均精度均值分别为91.6%、82.9%和88.2%,较原模型提升2.5、1.2、3个百分点。与其它主流模型的对比实验结果表明,本文方法对害虫的实际检测效果更优,对解决农田复杂环境下害虫的精准识别问题具有参考价值。  相似文献   
3.
基于自注意力机制与无锚点的仔猪姿态识别   总被引:1,自引:1,他引:0  
在猪场养殖过程中,仔猪姿态识别对其健康状况和环境热舒适度监测都有着重要意义。仔猪个体较小,喜欢聚集、扎堆,且姿态随意性较大,给姿态识别带来困难。为此,该文结合Transformer网络与无锚点目标检测头,提出了一种新的仔猪姿态识别模型TransFree(Transformer + Anchor-Free)。该模型使用Swin Transformer作为基础网络,提取仔猪图像的局部和全局特征,然后经过一个特征增强模块(Feature Enhancement Module,FEM)进行多尺度特征融合并得到高分辨率的特征图,最后将融合后的特征图输入Anchor-Free检测头进行仔猪的定位和姿态识别。该文以广东佛山市某商业猪场拍摄的视频作为数据源,从12个猪栏的拍摄视频中选取9栏作为训练集,3栏作为测试集,训练集中仔猪的俯卧、侧卧和站立3类姿态总计19 929个样本,测试集中3类姿态总计5 150个样本。在测试集上,TransFree模型的仔猪姿态识别精度达到95.68%,召回率达到91.18%,F1-score达到93.38%;相较于CenterNet、Faster R-CNN和YOLOX-L目标检测网络,F1-score分别提高了2.32、4.07和2.26个百分点。该文提出的TransFree模型实现了仔猪姿态的高精度识别,为仔猪行为识别提供了技术参考。  相似文献   
4.
海参目标检测是实现海参自动化捕捞的前提。为了解决复杂海底环境下背景和目标颜色相近以及遮挡导致的目标漏检问题,本文在Faster R-CNN框架下,提出了Swin-RCNN目标检测算法。该算法的骨干网络采用Swin Transformer,同时在结构上融入了多尺度特征提取层和实例分割功能,提高了算法的自适应特征融合能力,从而提高了模型在复杂环境下对不同尺寸海参的识别能力。实验结果表明:本文方法对海参检测的平均精度均值(mAP)达到94.47%,与Faster R-CNN、SSD、YOLO v5、YOLO v4、YOLO v3相比分别提高4.49、4.56、4.46、11.78、22.07个百分点。  相似文献   
5.
为了及时准确的识别番茄叶片病害,提高番茄产量,提出了一种优化的Swin Transformer番茄病害识别方法,该模型利用Transformer的自注意力结构获得更加完备的番茄病害图像的高层视觉语义信息;结合Mixup混合增强算法,在预处理阶段对图像特征信息进行增强;并采用迁移学习在增强番茄叶片病害数据集上进行训练和优化Swin Transformer模型,以此实现精准的番茄叶片病害识别。结果表明:1)优化的Swin Transformer模型对番茄叶片病害识别准确率达到98.40%;2)在相同训练参数下,本研究模型比原Swin Transformer、VGG16、AlexNet、GoogLeNet、ResNet50、MobileNetV2、ViT和MobileViT模型准确率提高了0.70%~1.91%,且能快速收敛;3)本研究模型中加入的Mixup混合增强算法极大地提高了番茄叶片病害的识别准确率,比现有的常见方法性能更加优越,并且鲁棒性强。因此,本研究提出的新模型能够更加准确的识别番茄叶片病害。  相似文献   
6.
面向绿熟番茄采后持续转熟特征,适时调温是满足不同成熟度番茄适宜贮运温度需求的关键,而果实成熟度自动识别与动态预测则是实现温度适时调控的基础条件。本文基于Swin Transformer与改进GRU提出了一种番茄成熟度识别与时序动态预测模型,首先通过融合番茄两侧图像获取番茄表观全局红色总占比,构建不同成熟番茄图像数据集,并基于迁移学习优化Swin Transformer模型初始权重配置,实现番茄成熟度分类识别;其次,周期性采集不同储藏温度(4、9、14℃)下番茄图像数据,结合番茄初始颜色特征与贮藏环境信息,构建基于Swin Transformer与GRU的番茄成熟度时序预测模型,并融合时间注意力模块优化模型预测精度;最后,对比分析不同模型预测结果,验证本研究所提模型的准确性与优越性。结果表明,番茄成熟度正确识别率为95.783%,相比VGG16、AlexNet、ResNet50模型,模型正确识别率分别提升2.83%、3.35%、12.34%。番茄成熟度时序预测均方误差(MSE)为0.225,相比原始GRU、LSTM、BiGRU模型MSE最高降低29.46%。本研究为兼顾番茄成熟度实现贮藏温度柔性适时调控提供了关键理论基础。  相似文献   
7.
快速准确识别奶牛粪便形态,对于奶牛肠胃健康监测与精细管理具有重要意义。针对目前奶牛粪便识别人工依赖强、识别难度大等问题,提出了一种基于VGG-ST(VGG-Swin Transformer)模型的奶牛稀便、软便、硬便及正常粪便图像识别与分类方法。首先,以泌乳期荷斯坦奶牛粪便为研究对象,采集上述4种不同形态的粪便图像共879幅,利用翻转、旋转等图像增强操作扩充至5580幅作为本研究数据集;然后,分别选取Swin Transformer、AlexNet、ResNet-34、ShuffleNet和MobileNet 5种典型深度学习图像分类模型进行奶牛粪便形态分类研究,通过对比分析,确定Swin Transformer为最优基础分类模型;最后,融合VGG模型与Swin Transformer模型,构建了VGG-ST模型,其中,VGG模型获取奶牛粪便局部特征,同时Swin Transformer模型提取全局自注意力特征,特征融合后实〖JP3〗现奶牛粪便图像分类。实验结果表明,Swin Transformer模型在测试集中分类准确率达859%,与ShuffleNet、ResNet-34、MobileNet、AlexNet模型相比分别提高1.8、4.0、12.8、23.4个百分点;VGG-ST模型分类准确率达89.5%,与原Swin Transformer模型相比提高3.6个百分点。该研究可为奶牛粪便形态自动筛查机器人研发提供方法参考。  相似文献   
8.
为提升设施农业远程监控系统的数据可视化与信息化程度,设计了一种温室远程监控系统,该系统主要由巡检机器人、移动通信网络、云服务器与远程监控中心组成,实现了温室端与远程监控中心端之间的文本、图像、视频3类数据传输。综合应用机器学习、深度学习算法实现人机交互与温室端番茄识别任务。基于Haar级联算法与LBPH算法实现了管理员人脸识别,识别成功率达90%;基于YOLO v3与ResNet-50算法分别识别手部与手部关键点,单手、双手的识别置信度分别为0.98与0.96;基于提取的食指指尖坐标与左右手部候选框中心点坐标实现了手指交互与图像尺寸缩放的功能。应用Swin Small+Cascade Mask RCNN网络模型,针对农业数据集有限的问题,对比分析了应用迁移学习方法前后的番茄检测效果。试验结果表明,应用迁移学习方法后,模型收敛速度有所提升且收敛后的损失值均有所下降;同时,IoU为0、0.5、0.75时的平均精度(mask AP)分别提升了7.8、 6.4、7.2个百分点,模型性能更优。  相似文献   
9.
为利用计算机或人工智能技术协助番茄病虫害防治,以存在病虫害侵害问题的番茄植株图像为研究对象,针对番茄病虫害目标小而密的特点提出基于Swin Transformer的YOLOX目标检测网络,用于精确定位图像中的病虫害目标,并采用基于经典卷积神经网络构建的旋转不变Fisher判别CNN分类网络,以此提高病虫害分类的准确率。结果表明:1)将测试结果与传统的目标检测模型和分类模型作对比,基于Swin Transformer的YOLOX网络在番茄病虫害测试集上的精确度比Faster R-CNN和SSD分别高了7.9%和9.5%,旋转不变Fisher判别CNN对病虫害类别的识别准确率与AlexNet、VGGNet相比分别提升了8.7%和5.2%;2)与基于Transformer的目标检测模型DETR和近年来新兴的图像分类模型Vision Transformer(ViT)在番茄病虫害测试集上的结果相比较,本研究的检测和分类方法也存在优势,病虫害检测精度和分类准确率分别提高了3.9%和4.3%。此外消融试验也证明了本研究方法改进的有效性。总之,本研究所构建的网络在番茄病虫害的目标检测和分类识别方面的性能优于其他网络,有助于提升番茄病虫害的防治效果,对计算机视觉在农业领域的应用具有重要意义。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号