首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
针对高原鼠兔图像目标尺寸小、背景复杂、特征不显著、基于活动轮廓的图像分割模型无法有效分割的问题,采用基于卷积神经网络的SegNet语义模型对高原鼠兔图像进行分割:首先将采集的高原鼠兔图像进行预处理,尺度归一化后制作成与Pascal VOC数据集格式一致的数据集;然后将数据集分为训练集与测试集,采用训练集对SegNet模型训练,测试集对模型进行分割测试。对高原鼠兔图像分割的试验结果表明:与基于活动轮廓的Chan_Vese模型相比,基于卷积神经网络的SegNet模型对高原鼠兔图像分割时的交并比、平均像素精度、Dice相似性指数和Jaccard指数分别提高了68.33%、9.35%、30.61%和47.98%,过分割率和欠分割率分别降低了87.20%、16.52%。  相似文献   

2.
针对传统识别检测技术对较小目标的检测准确度不足,且检测速度较慢的问题,提出利用小波变换进行图像整合得到原始的背景图像,并引入图像特征融合机制和感受野增强机制优化YOLO算法。对改进像素直方图方法的性能验证结果表明,像素直方图+小波变换检测方法在数据集1~4中的准确率分别为90.39%、94.29%、96.69%和96.60%。在数据集1~4中改进的YOLO算法在目标检测的准确度和检测速度高于YOLOv2和RetinaNet算法。从结果可以看出,改进后的方法具有较高的准确性,可以实现对较小目标的检测,在视觉图像识别技术中可以得到较好的应用,具有较高的应用价值。  相似文献   

3.
小样本目标检测旨在通过少量样本实现对图像中目标的识别和定位。目前针对柑橘缺陷的小样本数据集进行的检测较少,本文提出了使用数据增强和迁移学习来对小样本柑橘的缺陷类型进行检测的方法,采用旋转、裁剪和高斯模糊进行数据增强来扩充数据集,与使用迁移学习方法进行对比。实验表明:迁移学习方法中最优算法是FRCN ft-full,基于该算法的20-shot任务的mAP值为67.823%;在基于数据增强的方法中使用Faster R-CNN算法的mAP值达到了84.7%,使用YOLOv8算法的mAP是85.3%,YOLOv8算法略优于Faster R-CNN算法。迁移学习方法增强了检测模型的泛化能力,加快了模型的收敛速度;数据增强方法有效扩充了数据集,提升了小样本柑橘缺陷检测模型的准确性。  相似文献   

4.
针对YOLO v5检测模型存在的漏检率和误检率问题,改进目标检测技术,提升苹果叶部病害早期发现及定位的准确性和速度,从而减少经济损失。先采用加权双向特征金字塔网络(BiFPN)特征融合方法,有效改善PANet对多尺度特征融合的不良影响,并引入Transformer机制,有效改进原始网络结构,使其专注于有用的信息,并增强特征融合效果。再使用ATCSP模块和自上而下的特征融合方法,增强模型对多尺度疾病的检测效果,并将强大的语义信息传达至模型底层,进一步提高检测精度。使用数据集由实验室采集的苹果树叶样本构成,包含3 331张标记图像的矩形位置来标记病害。由于图像亮度分布不均匀,采用直方图均衡化和改进的直方图均衡化处理,使图像对比度得到增强,大幅降低后续图像特征提取的计算量。在训练和测试过程中,还对原始病害图像进行旋转、随机亮度增强、随机色度增强、随机对比度增强和锐化等数据增强操作。结果表明,改进的YOLO v5检测算法可以显著提高苹果叶部病害检测的精度,对比原始算法,平均精度mAP@0.5提高20.8%。改进YOLO v5苹果叶部病害检测算法能够及时发现和定位苹果叶部病害,进而为深度学习技术...  相似文献   

5.
【目的】无人机低空遥感能大范围且快速、便捷地动态监测鼠害分布。通过无人机所 提取的高原鼠兔鼠害信息,构建鼠害程度估算模型,探究无人机对草原鼠害快速监测和防 治的可行性。【方法】文章利用无人机低空航拍,获取若尔盖湿地自然保护区中主要存在的 高原鼠兔鼠害的高分辨率无人机正射影像和数字高程模型影像,并对其进行遥感监测,构 建鼠害程度估算模型来对其鼠害发生、发展状况进行探索。【结果】研究结果表明:(1)航 拍区高原鼠兔鼠害程度以轻度危害和中度危害为主,轻度及中度危害面积为90 703.8 m2,面 积占比达65.5%,极度危害占总面积的16%,危害面积为22 096.8 m2。(2)高原鼠兔鼠害程 度均呈半倒U 型曲线,在东西方向上趋势线从西往中间逐渐攀升,总体表明东部鼠害程度 比西部高;在南北方向上趋势线在中间偏南的位置达到最高,总体表明南部的鼠害程度高 于北部;在西北—东南方向与东北—西南方向上鼠害程度从样地中心地区向四周逐渐降低。 【结论】通过对高原鼠兔的鼠害程度估算模型进行分析后发现,高原鼠兔危害程度在样地北 部主要为轻度危害和重度危害,近似呈以东北和西北部极度危害区为核心的圈层结构并向外 扩散递减;极度危害区集中分布在样区的中部区域;在样区南部主要以中度和重度危害为 主,近似呈以西南和东北部两个极度危害为核心的带状结构,并向东北—西南方向延伸分布。  相似文献   

6.
为提高复杂背景下立木图像的识别准确率,提出近似联合训练的Faster R-CNN对立木图像进行目标提取并分类。首先迁移ImageNet上的模型VGG16、ResNet101和MobileNetV2提取图像特征并微调网络,然后构建新的数据集包括7科10种立木图像共2 304张,通过该数据集训练和测试3种网络模型下的Faster R-CNN。结果表明,通过近似联合训练的Faster R-CNN得到的均值平均精度分别是93.64%、92.38%、92.58%,对于不同种属的立木,VGG16网络效果最佳。由于光照会对图像识别造成影响,将光照平衡前后的结果作对比,得到光照平衡后的立木图像识别结果优于平衡前。并利用训练的模型对斜向生长的立木图片进行检测,结果显示生长方向不影响图像识别准确率。证明该方法在具有复杂背景的立木图像上具有良好的效果,对更多立木的识别有一定的参考价值。  相似文献   

7.
针对在树皮图像分类过程中图像训练数据数量少、识别准确率低的问题,提出一种基于卷积神经网络的小样本树皮图像识别方法。以5种常见树种的树皮图像作为研究对象,在基于卷积神经网络的Inception_v3模型基础上,对原始数据集进行数据增强的一系列操作,扩大数据集的数量;在此基础上,对所有数据集进行白化处理,以降低数据之间的冗余性,使得特征之间相关性较低;采用ReLU激励函数和Dropout方法,防止训练时引起的过拟合现象;同时,在模型的最后添加3层全连接层,增强模型的特征表达能力,采用softmax分类器。最终确定了一个10层CNN模型:5个卷积层、2个池化层、3个全连接层。结果表明,上述网络模型对数据集的识别准确率为94%,并且为验证本研究方法的可行性,分别在MNIST数据集、ImageNet数据集、CIFAR-10数据集进行测试,识别准确率分别为92%、90%、93%。因此,提出的方法在小样本的识别试验中具有较高的识别准确率和一定的可行性。  相似文献   

8.
在农业生产中,虫害已经成为影响作物产量和质量的主要威胁之一,针对传统识别方法对复杂背景下虫害图像识别准确率和效率低等问题,本研究提出一种基于迁移学习和改进残差网络的虫害图像识别方法。首先,利用数据增强技术对采集的橘小实蝇虫害图像进行样本数据的扩充;再在ResNet-34模型的基础上,增加了2个注意力模块层,并重新设计了全连接层模块,获得能够改进后的网络模型;最后利用迁移学习的方法将预训练的参数权重迁移到本模型中进行训练,并在试验过程中分析学习方式、样本量、学习率、批量大小等参数对模型性能的影响。结果表明,采用旋转、翻转和亮度变换操作对图像进行数据扩充的数据集,在训练模型的全部层的迁移学习方法中获得99.77%的测试准确率。本研究提出的模型具有较高的识别准确率和较强的鲁棒性,可为实现复杂背景下虫害的识别提供参考。  相似文献   

9.
为提高小样本茶树病害识别的准确率,提出一种基于2次迁移模型的卷积神经网络茶树病害图像识别方法.首先将ResNet模型在ImageNet数据集上进行预训练,然后将预训练模型对植物病害数据集进行参数迁移训练,最后将迁移学习训练后的模型对扩充后的小样本茶树病害数据集进行2次参数迁移训练.结果表明,扩充后的数据集识别准确率较原数据集提高2.32%,再进行2次迁移学习后识别准确率又提高6.38%.通过调整训练超参数,对茶红锈藻病、炭疽病、茶网饼病、圆赤星病、藻斑病等5种茶树病害图像的识别准确率高达96.64%.在对5种茶树病害进行验证时,验证样本识别率与常规深度学习相比由93%提高至98%.2次迁移学习能够有效提高在小样本茶树病害识别下模型的识别能力,对实用化茶树病害识别具有重要的参考意义.  相似文献   

10.
病害是威胁作物生长的主要因素,其特征复杂、变化多样。农业从业人员如缺乏专业知识,往往难以准确识别。以往图像识别方法常针对单一作物,图像分割后提取病害特征进行识别,无法适应多种作物。针对此问题,以水稻、番茄、柑橘、苹果为研究对象,以ResNet模型为基础构建深度学习网络框架,设计了含Squeeze-and-Excitation(SE)模块全新的全连接层,导入在ImageNet上预训练的权重,并在病害数据集上训练得到病害模型。为扩充图像数据,对训练集原图进行了亮度增减、随机旋转与镜面翻转等操作。基于扩充后的训练集进行病害识别和病害程度的分级研究。结果表明,对水稻、番茄、柑橘、苹果平均病害程度识别的准确率为94.16%,平均病害种类识别的准确率为92.45%;并利用训练好的模型基于c#.net core开发了病害监测平台,可实现作物病害的智能识别。  相似文献   

11.
针对实际遥感耕地信息提取工作中,多源数据特征复杂、样本标注工作繁重等导致高空间分辨率影像解译精度不高、自动化程度不够的问题,本研究基于DeepLab v3+模型,提出一种融合邻域边缘加权模块(NEWM)和轴向注意力机制模块(CBAM-s)的卷积网络模型DEA-Net,结合迁移学习方法进行高分辨率遥感影像耕地信息提取。首先,在浅层网络结构中加入邻域边缘加权模块,提升高分辨率下地物的连续性,细化边缘分割粒度;其次,在深层网络结构中添加轴向注意力机制模块,增加细小地物的关注权重,减少深度卷积导致地物丢失的情况;最后,采用迁移学习的思想,降低样本标注工作量,提高模型学习能力。利用高分卫星土地覆盖数据集(GID)数据构建源域数据集进行模型预训练,将获取的模型参数及权重信息迁移至大数据与计算智能大赛(BDCI)遥感影像地块分割竞赛数据集和全国人工智能大赛(NAIC)遥感影像数据集制作的2种不同目标域数据集中,微调训练后应用于耕地信息提取研究。结果表明,本研究构建方法能够增强模型的空间细节学习能力,提高耕地语义分割精度的同时,降低2/3以上的训练样本数量,为遥感耕地信息提取及农业数据智能化利用提供新...  相似文献   

12.
针对智能驾驶场景下的小尺寸交通标志检测准确率不高的问题,提出一种基于Tiny YOLOv3网络的交通标志检测算法。通过使用深度可分离卷积重构特征提取网络和增加浅层与深层特征层之间的特征融合,提高模型对小目标的注意力;同时修改anchor boxes尺寸,提升预测框的准确度。在TT100K交通标志数据集上的试验结果表明,提出算法的平均精度均值(mAP)较TinyYOLOv3提高了19.3%,对小尺寸交通标志检测具有更强的鲁棒性。  相似文献   

13.
鉴于对大豆叶片虫洞进行识别有助于及时发现虫情并有针对性的防治虫害,提出了一种大豆叶片虫洞的识别方法:以YOLO v5s网络作为基础,在大豆叶片虫洞特征提取过程中引入空洞卷积代替3次池化处理,提取虫洞边缘不规则信息;将特征信息输入空间注意力机制,提取时空融合信息,进而捕获野外不同背景下的颜色信息;针对大豆叶片虫洞目标远近不一的问题,重构特征金字塔结构,增加了1层输出层,将80像素×80像素输出特征图经过上采样后得到160像素×160像素特征图,并将其与浅层同尺寸特征图进行拼接,提高虫洞目标识别定位的准确性;将融合后的总特征输入目标检测模块,输出单个对象的检测外框,得到大豆叶片虫洞识别模型。在大豆叶片虫洞样本数据集上对模型进行测试,结果对大豆叶片虫洞的平均识别准确率最高达95.24%,模型存储空间为15.1 MB,每秒传输91帧。所建立的方法与Faster R–CNN、YOLO v3、YOLO v5s对比,对大豆叶片虫洞识别的平均准确率分别提高2.50%、12.13%、2.81%。  相似文献   

14.
为解决昆虫数据集数据分布不均衡导致识别模型在数据量少的尾部类别的识别性能差的问题,提出1种融合数据合成的卷积识别网络模型(synthetic samples combined model,SSCM),该模型包含图像分割与重组模块、主干网络模块和数据纠正分支模块等3个模块。通过图像分割与重组模块对训练的图片进行分割并重组,得到新的训练数据并加入训练集;再使用ResNet-50作为网络主干提取图片的特征,同时数据纠正分支模块采用均方误差与交叉熵计算合成图像与原图像之间的误差,以减少合成图像对尾部数据的不利影响。构建包含300个蝴蝶类别共26 045张图片的数据集验证模型性能,结果显示,SSCM模型在该数据集上的准确率较DRC、BBN、RIDE等主流长尾目标识别模型分别高3、2.14、2.71个百分点。采用公开昆虫数据集IP102进一步验证SSCM算法的有效性,结果显示,SSCM模型准确率比DRC、BBN、RIDE等模型分别高18.94、3.02、3.36个百分点。  相似文献   

15.
针对深度学习群猪目标检测算法精确度低和模型占用内存大等问题,提出基于Transformer与自适应空间特征融合的群猪目标检测算法。搭建群猪图像采集设备,以视频帧作为数据源,提取关键帧并剔除模糊图像,采用Labelme标注图像中猪只,建立群猪图像数据集;将Swin Transformer网络作为主干网络,在FPN后引入自适应空间特征融合方法作为特征融合网络;提出RIoU作为预测框回归损失计算方法。结果表明,该算法在精确率、召回率、F1值和平均精确率指标方面分别达到93.6%、97.2%、0.953、96.5%,检测速度为34.9 Hz且模型大小仅为20.6 MB,与YOLOv4相比上述指标分别提高1.5%、1.7%、1.6%、2.4%,模型占用内存量缩小12.5倍,检测速度提高13 Hz。研究有助于智能化猪场建设,为养殖场动物计数和行为识别等方面提供技术支持。  相似文献   

16.
  目的  红外触发相机采集的雪豹监测图像质量参差不齐,且数量有限,为了提升小样本下雪豹的识别准确率,本研究提出一种雪豹监测图像自动识别方法。  方法  该方法基于具备注意力机制的ResNeSt50模型,使用祁连山国家公园的雪豹监测图像作为原始数据集,红外触发相机拍摄的非雪豹陆生野生动物图像作为扩充负样本,网络雪豹图像作为扩充正样本,生成3种数据集并依次进行对比实验,选择合适的扩充方式引导模型逐步关注到雪豹个体关键特征,使用梯度类激活热力图可视化进一步验证数据扩充后的有效性。  结果  使用原始数据集+扩充负样本+扩充正样本训练的模型识别效果最好,热力图可视化显示模型正确关注到雪豹个体花纹与斑点特征,对比基于Vgg16和ResNet50的识别模型,ResNeSt50的识别效果最好,测试集识别准确率达到97.70%,精确率97.26%,召回率97.59%。  结论  采用本研究提出的原始数据集+扩充负样本+扩充正样本数据扩充方法训练的模型,可以区分背景与前景,且对雪豹本身特征具有较强的判别能力,泛化能力最好。   相似文献   

17.
农田杂草是影响农作物生长的主要因素之一,农田杂草的有效防治与农作物产量息息相关.复杂田间环境下,精准识别玉米秧苗与农田杂草能够指导除草装备作业更加经济和高效.为提高农田目标识别精度和效率,文章基于深度学习技术的目标检测方法,首先使用多苗期、多时段和单一拍摄角度的图像采集方式并配合数据增强方法制作一个特征丰富的数据集.通过减少YOLOv4网络的输出张量为13×13和52×52两个尺度匹配玉米苗和杂草,并用制作数据集作网络训练.训练结果表明,改进后YOLOv4网络训练得到的检测模型在综合性能上优于YOLO v3、原本YOLO v4和主干网络为VGG19的Faster R-CNN;其F1值为0.828,较修改前提升0.031,检测时间缩短0.014s.此外,根据试验可知数据量和数据增强方式均对模型产生不同程度影响;不同类别的目标进行单一训练比多类别目标组合训练得到检测效果更好.  相似文献   

18.
基于改进全卷积神经网络的黄瓜叶部病斑分割方法   总被引:1,自引:0,他引:1  
为了解决传统卷积神经网络在黄瓜叶部病斑图像分割中存在模型训练时间长、分割效果差以及分割过程中易受光照和背景影响等问题,提出了一种基于改进全卷积神经网络的黄瓜叶部病斑分割方法。首先在模型训练的初始阶段使用传统的卷积神经网络得到病斑图像的轮廓特征,在训练过程中将传统的修正性单元(RELU)激活函数替换为指数线性单元(ELU)激活函数;然后对传统的卷积神经网络得到的病斑图像轮廓特征进行二次模型训练,训练过程中使用批归一化(Batch normalization)函数稳定模型训练过程;最后将原始卷积神经网络的多项逻辑回归(Soft max)分类器更换为支持向量机(SVM)分类器,对分类器输出的像素分类结果进行反卷积操作,恢复图像分辨率,得到分割结果。使用本研究方法与改进OTSU、SVM、CRF和传统FCN等4种方法在黄瓜叶部病斑数据集上进行分割试验,结果表明本研究方法的平均像素分割准确率为80.46%,平均交并比为70.43%,具有较高的分割精度。  相似文献   

19.
【目的】采用机器视觉技术开展柑橘梢期的智能感知技术研究,以解决背景与目标颜色相似造成识别精度低的问题,实现柑橘梢期自动监测,探索算法的改进方法。【方法】根据不同卷积层提取特征的特点与不同注意力机制的作用,提出了一种基于多注意力机制改进的YOLOX-Nano智能识别模型,建立多元化果园数据集并进行预训练。【结果】改进的YOLOX-Nano算法使用果园数据集作为预训练数据集后,各类别平均精度的平均值(Mean average precision, mAP)达到88.07%。与YOLOV4-Lite系列模型相比,本文提出的改进模型在使用较少的参数和计算量的情况下,识别精度有显著的提升,mAP分别比YOLOV4-MobileNetV3和YOLOV4-GhostNet提升6.58%和6.03%。【结论】改进后的模型在果园监测终端的轻量化部署方面更具有优势,为农情实时感知和智能监测提供了可行的数据和技术解决方案。  相似文献   

20.
小麦是重要的粮食作物之一,针对人工田间麦穗计数及产量预测效率低的问题,基于深度学习提出了一种高分辨率的小密集麦穗实时检测方法。对麦穗图像数据集进行图像分割、标注、增强预处理,基于Tensorflow搭建YOLOv4网络模型,调整改进后对其进行迁移学习;与YOLOv3、YOLOv4-tiny、Faster R-CNN训练模型进行对比,对改进模型的实用性与局限性进行分析;重点分析影响麦穗检测模型性能的关键因素。通过图像分割的方式,证明了通过改变图像分辨率确定麦穗所占图像最优像素比,可以提高前景与背景差异,对小密集麦穗有显著效果。通过对改进模型的测试,表明该模型检测精度高,鲁棒性强。不同分辨率、不同品种、不同时期的麦穗图像均类平均精度(mAP)为93.7%,单张图片的检测速度为52帧·s-1,满足了麦穗的高精度实时检测。该研究结果为田间麦穗计数以及产量预测提供技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号