首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 173 毫秒
1.
为解决遥感图像河流精细化提取问题,提出一种改进LinkNet模型的分割网络(AFR-LinkNet)。AFR-LinkNet在LinkNet基础上引入了残差通道注意力结构、非对称卷积模块以及密集跳跃连接结构,并用视觉激活函数FReLU替换ReLU激活函数。残差通道注意力结构可以强化对分割任务有效的特征,以提高模型的分类能力,得到更多的细节信息。利用非对称卷积模块进行模型压缩和加速。使用FReLU激活函数提升网络提取遥感图像河流的精细空间布局。在寒旱区河流数据集上的实验结果表明,AFR-LinkNet网络相较于FCN、UNet、ResNet50、LinkNet、DeepLabv3+网络交并比分别提高了26.4、22.7、17.6、12.0、9.7个百分点,像素准确率分别提高了25.9、22.5、13.2、10.5、7.3个百分点;引入非对称卷积模块后,交并比提高了5.1个百分点,像素准确率提高了2.9个百分点,在此基础上引入残差通道注意力结构之后,交并比又提高了2.2个百分点,像素准确率提高了2.3个百分点,证明了其对河流细节识别效果更好。  相似文献   

2.
寒旱区河流提取对该地区生态环境监测、农业规划、灾害预警等具有重要意义。根据寒旱区特点制作了面向寒旱区遥感影像河流识别的专业数据集;为了提高网络的识别准确率,融合迁移学习与深度学习,将Res Net50网络迁移到Linknet网络,得到R-Linknet网络;为了提取到更多的细节信息和增加提取河流的连贯性,将密集空间金字塔池化与R-Linknet网络相结合,扩大网络的感受野;训练时,将Dice系数损失函数与二分类交叉熵函数相结合,作为新的损失函数。数据集验证结果表明,本文提出的方法与多种语义分割网络相比,像素准确率较FCN_8s、Res Net50、Deeplab V3、Unet和原始Linknet网络分别提高0.216、0.099、0.031、0.056和0.023,交并比分别提高0.19、0.142、0.056、0.105和0.028;加入Dense ASPP之后,像素准确率提高0.023,交并比提高0.050,采用新的损失函数进行训练后,像素准确率和交并比又分别提高0.019和0.022。该方法提取到的河流更加清晰、连贯,能够满足后续的研究需求。  相似文献   

3.
基于全卷积神经网络的林区航拍图像虫害区域识别方法   总被引:4,自引:0,他引:4  
针对航拍林区虫害图像的虫害区域不规则和传统识别方法泛化能力差的问题,提出一种基于全卷积神经网络(Fully convolution networks,FCN)的虫害区域识别方法。采用八旋翼无人机航拍虫害林区、获取林区虫害图像,并对虫害区域进行像素级标注,用于模型训练;将VGG16模型的全连接层替换为卷积层,并通过上采样实现端到端的学习;使用预训练的卷积层参数,提升模型收敛速度;采用跳跃结构融合多种特征信息,有效提升识别精度,并通过该方法构造了5种全卷积神经网络。试验表明,针对林区航拍虫害图像,FCN-2s在5种全卷积神经网络中区域识别精度最高,其像素准确率为97. 86%,平均交并比为79. 49%,单幅分割时间为4. 31 s。该方法与K-means、脉冲耦合神经网络、复合梯度分水岭算法相比,像素准确率分别高出44. 93、20. 73、6. 04个百分点,平均交并比分别高出50. 19、35. 67、18. 86个百分点,单幅分割时间分别缩短47. 54、19. 70、11. 39 s,可以实现林区航拍图像的虫害区域快速准确识别,为林业虫害监测和防治提供参考。  相似文献   

4.
基于深度学习的无人机土地覆盖图像分割方法   总被引:2,自引:0,他引:2  
编制土地覆盖图需要包含精准类别划分的土地覆盖数据,传统获取方法成本高、工程量大,且效果不佳。提出一种面向无人机航拍图像的语义分割方法,用于分割不同类型的土地区域并分类,从而获取土地覆盖数据。首先,按照最新国家标准,对包含多种土地利用类型的航拍图像进行像素级标注,建立无人机高分辨率复杂土地覆盖图像数据集。然后,在语义分割模型DeepLab V3+的基础上进行改进,主要包括:将原始主干网络Xception+替换为深度残差网络ResNet+;引入联合上采样模块,增强编码器的信息传递能力;调整扩张卷积空间金字塔池化模块的扩张率,并移除该模块的全局池化连接;改进解码器,使其融合更多浅层特征。最后在本文数据集上训练和测试模型。实验结果表明,本文提出的方法在测试集上像素准确率和平均交并比分别为95. 06%和81. 22%,相比原始模型分别提升了14. 55个百分点和25. 49个百分点,并且优于常用的语义分割模型FCN-8S和PSPNet模型。该方法能够得到精度更高的土地覆盖数据,满足编制精细土地覆盖图的需要。  相似文献   

5.
番茄图像中多类别目标的准确识别是实现自动化采摘的技术前提,针对现有网络分割精度低、模型参数多的问题,提出一种基于改进DeepLabv3+的番茄图像多类别分割方法。该方法使用幻象网络(GhostNet)和坐标注意力模块(Coordinate attention, CA)构建CA-GhostNet作为DeepLabv3+的主干特征提取网络,减少网络的参数量并提高模型的分割精度,并设计了一种多分支解码结构,用于提高模型对小目标类别的分割能力。在此基础上,基于单、双目小样本数据集使用合成数据集的权值参数进行迁移训练,对果实、主干、侧枝、吊线等8个语义类别进行分割。结果表明,改进的DeepLabv3+模型在单目数据集上的平均交并比(MIoU)和平均像素准确率(MPA)分别为68.64%、78.59%,在双目数据集上的MIoU和MPA分别达到73.00%、80.59%。此外,所提模型内存占用量仅为18.5 MB,单幅图像推理时间为55 ms,与基线模型相比,在单、双目数据集上的MIoU分别提升6.40、6.98个百分点,与HRNet、UNet、PSPNet相比,内存占用量压缩82%、79%、88%...  相似文献   

6.
食品包装上的标签文本含有生产日期、营养成分、生产厂家等食品相关信息,这些不仅为消费者购买食品提供了重要依据,也有助于食品监督抽检机构发现潜在的食品安全问题。食品标签文本检测是食品标签自动识别的前提,有助于降低人工录入成本、提高数据处理效率。基于食品包装图像构建数据集,提出了一种基于语义分割的距离场模型,以检测食品标签。该模型包含像素分类和距离场回归两类任务,其中像素分类任务分割处理图像中的文本区域,距离场回归任务预测文本区域内的像素点到该区域边界的归一化距离。为提升模型的检测性能,在回归预测模块中通过增加注意力模块优化模型结构,并针对距离场回归任务损失值过小、影响模型训练优化问题对其损失函数进行了改进。消融实验结果表明,增加注意力模块和损失函数的改进使得模型的准确率分别提高了4.39、3.80个百分点,有效提高了检测准确率。食品包装图像数据集的对比实验表明,采用本文模型检测食品标签文本具有较好的性能,其召回率、准确率分别达到87.61%、76.50%。  相似文献   

7.
为提高葡萄种植区遥感识别精度,基于高分二号卫星遥感影像,对U-Net网络进行改进:从空间和通道维度自适应校准特征映射,以增强有意义的特征,抑制不相关的特征,提升地物边缘分割精度;减少下采样次数,使用混合扩张卷积代替常规卷积操作,以增大卷积核感受野,降低图像分辨率的损失,提高对不同尺寸地物的识别能力。实验结果表明,本文模型在测试集上的像素准确率、平均交并比和频权交并比分别为96.56%、93.11%、93.35%,比FCN-8s网络分别提高了5.17、9.57、9.17个百分点,比U-Net网络提高了2.39、4.59、4.39个百分点。此外,本文通过消融实验和特征可视化证明了注意力模块和混合扩张卷积在精度提升上的可行性。本文模型结构简单、参数量少,能够识别不同面积的葡萄种植区,边缘分割效果良好。  相似文献   

8.
细粒度图像识别任务中,在整体相似度极大而局部细节不同的图片中提取具有关注度的区域,并对其中的特征加以学习是至关重要的任务。针对目前研究中存在的人工标注判别区域的成本太高、模型构建中需引入大量额外的网络结构,在训练和推理阶段会引入额外的计算开销等问题,研究优化后提出多层和区域特征融合模型。模型基于注意力机制进行构建,模拟人类观察原理,提升对有价值的局部细节的关注能力,提高在经典数据集上的识别效果。本模型主要分为带有注意力权重的卷积神经网络多层融合和基于区域特征之间依赖性的区域融合两个部分。整体主要以注意力机制为主,注重特征提取时全面考虑图像细节特征和抽象特征以及对于不同区域的组成与各个区域之间的依赖关系,在兼顾整体的情况下同时发挥局部细节的影响力。试验结果表明:在部分经典数据集上具有良好的准确率,Oxford Flowers数据集准确率为95.69%,同时在AID(航拍图像)数据集上具有96.96%的准确率,此前没有任何模型在该数据集上有过相关研究和模型训练。  相似文献   

9.
基于深度语义分割网络的荔枝花叶分割与识别   总被引:2,自引:0,他引:2  
针对使用目标检测、实例分割方法无法对复杂自然环境下稠密聚集的荔枝花进行识别的问题,提出一种基于深度语义分割网络识别荔枝花、叶像素并实现分割的方法。首先在花期季节于实验果园拍摄荔枝花图像;然后制作标签,并进行数据增强;构建深度为34层的ResNet主干网络,在此基础上引入稠密特征传递方法和注意力模块,提取荔枝花、叶片的特征;最后通过全卷积网络层对荔枝花、叶片进行分割。结果表明,模型的平均交并比(mIoU)为0.734,像素识别准确率达到87%。本文提出的深度语义分割网络能够较好地解决荔枝花的识别与分割问题,在复杂野外环境中具有较强的鲁棒性和较高的识别准确率,可为智能疏花提供视觉支持。  相似文献   

10.
在智慧养殖研究中,基于深度学习的猪只图像实例分割方法,是猪只个体识别、体重估测、行为识别等下游任务的关键。为解决模型训练需要大量的逐像素标注图像,以及大量的人力和时间成本的问题,采用弱监督猪只分割策略,制作弱监督数据集,提出一种新的特征提取骨干网络RdsiNet:首先在ResNet-50残差模块基础上引入第2代可变形卷积,扩大网络感受野;其次,使用空间注意力机制,强化网络对重要特征的权重值;最后引入involution算子,借助其空间特异性和通道共享性,实现加强深层空间信息、将特征映射同语义信息连接的功能。通过消融实验和对比实验证明了RdsiNet对于弱监督数据集的有效性,实验结果表明其在Mask R-CNN模型下分割的mAPSemg达到88.6%,高于ResNet-50、GCNet等一系列骨干网络;在BoxInst模型下mAPSemg达到95.2%,同样高于ResNet-50骨干网络的76.7%。而在分割图像对比中,使用RdsiNet骨干网络的分割模型同样具有更好的分割效果:在图像中猪只堆叠情况下,能更好地分辨猪只个体;使用BoxInst训...  相似文献   

11.
基于MRE-PointNet+AE的绿萝叶片外形参数估测算法   总被引:1,自引:0,他引:1  
为了准确、高效、自动获取植物叶片外形参数,提出一种基于多分辨率编码点云深度学习网络(MRE-PointNet)和自编码器模型的绿萝叶片外形参数估测算法。使用Kinect V2相机以垂直姿态获取绿萝叶片点云数据,采用直通滤波、分割、点云精简算法对数据进行预处理,通过测定的叶片外形参数反演绿萝叶片几何模型,并计算几何模型的叶长、叶宽、叶面积。将不同参数组合构建的几何模型离散成点云数据输入MRE-PointNet网络,得到几何模型叶片外形参数估测的预训练模型。针对拍摄过程中存在的叶片部分遮挡和噪声问题,采用自编码器网络对点云数据进行二次处理,以几何模型离散的点云数据作为输入,经过编码解码运算得到自编码器的预训练模型,提升了MRE-PointNet网络在遮挡情况下对叶片外形参数估测的鲁棒性。试验共采集300片绿萝叶片点云数据,按照2∶1比例进行划分,以其中200片点云数据作为训练集,对预训练模型MRE-PointNet做模型迁移的参数微调,以剩下的100片点云数据作为测试集,评估模型对绿萝叶片外形参数的估测能力。采用本文算法将外形参数估测值和真实值进行数学统计与线性回归分析,得出叶长、叶宽和叶面积估测的R^2和RMSE分别为0.9005和0.4170 cm、0.9131和0.3164 cm、0.9447和3.8834 cm^2。试验表明,基于MRE-PointNet和自编码器模型的绿萝叶片外形参数估测算法具有较高的精确度和实用性。  相似文献   

12.
针对菊花种类繁多,花型差别细微,准确标注比较困难的问题,基于深度主动学习与混合注意力机制模块(Convolutional block attention module,CBAM),提出了一种标号数据不足情况下的菊花表型智能识别方法和框架。首先,通过主动学习策略基于最优标号和次优标号法(Best vs second best,BvSB)在未标记菊花样本中选取信息量较大的样本进行标记,并将标记后的样本放入训练样本中;其次,使用深度卷积神经网络ResNet50作为本文的主干网络训练标记样本,引入混合注意力机制模块CBAM,使模型能够更为准确地提取细粒度图像中的高层语义信息;最后,用更新后的训练样本继续训练分类模型,直到模型达到迭代次数后停止。实验结果表明,该方法在少量菊花标记样本下,精确率、召回率和F1值分别达到93.66%、93.15%和93.41%。本文方法可为标号数据不足情况下的菊花等花卉智能化识别提供技术支撑。  相似文献   

13.
针对实际稻田环境中水稻与杂草相互遮挡、难以准确区分的问题,提出一种基于改进DeepLabv3+的水稻杂草识别方法。以无人机航拍的复杂背景下稻田杂草图像为研究对象,在DeepLabv3+模型的基础上,选择轻量级网络MobileNetv2作为主干特征提取网络,以减少模型参数量和降低计算复杂度;融合通道和空间双域注意力机制模块,加强模型对重要特征的关注;提出一种基于密集采样的多分支感受野级联融合结构对空洞空间金字塔池化模块(ASPP)进行改进,扩大对全局和局部元素特征的采样范围;对模型解码器部分进行改进。设置消融试验验证改进方法的有效性,并与改进前DeepLabv3+、UNet、PSPNet、HrNet模型进行对比试验。试验结果表明,改进后模型对水稻田间杂草的识别效果最佳,其平均交并比(MIoU)、平均像素准确率(mPA)、F1值分别为90.72%、95.67%、94.29%,较改进前模型分别提高3.22、1.25、2.65个百分点;改进后模型内存占用量为11.15 MB,约为原模型的1/19,网络推算速度为103.91 f/s。结果表明改进后模型能够实现复杂背景下水稻与杂草分割,研究结果可...  相似文献   

14.
基于半监督主动学习的菊花表型分类研究   总被引:1,自引:0,他引:1  
鉴于人工和专家分类模式的局限性,基于表型的菊花分类存在效率低下的问题。本文采用基于半监督主动学习技术,在已分类菊花数据的基础上,利用未标号菊花样本数据提供的信息,建立了菊花表型分类模型,提升了分类质量和效率。该模型可以不依赖外界交互,利用未标号样本来自动提升菊花分类的质量。为了训练学习模型,本文收集了菊花的表型特征数据,标注了菊花表型类别,并研究了菊花分类属性特征的编码技术。在此数据集上,采用基于图标号传播的半监督学习技术对未标号的菊花数据进行建模,为了提升半监督分类的有效性,在标号传播的基础上使用主动学习技术,采用熵最大策略来选择难以识别的样本,以改进分类质量。在该数据集上进行了试验验证,并进行了试验对比和分析,试验结果表明,本文方法能够较好地利用未标号菊花样本提升分类的精度,随着标号百分比从6.25%升至23%,识别精度达到0.7以上,标号百分比在81.25%时,平均识别精度和召回率分别达到0.91和0.88。  相似文献   

15.
许鑫  马文政  张浩  马新明  乔红波 《农业机械学报》2023,54(12):272-279,337
针对我国作物品种种类多,资源信息规范性差,模型训练精度低等问题,本文以小麦、水稻、玉米、大豆、棉花、花生、油菜7种作物为对象,以品种、形态、产量和品质等参数为指标,构建了83个品种实体,采用人工标注方法,通过融合对抗训练技术,提出了农作物品种信息抽取4层网络模型(BERT-PGD-BiLSTM-CRF)。模型基于深层双向Transformer构建的BERT(Bidirectional encoder representation from transformers)模型作为预训练模型获取字词语义表示,使用PGD(Projected gradient descent)对抗训练方法为样本增加扰动,提高模型鲁棒性和泛化性,利用双向长短期记忆网络(Bidirectional long short-term memory, BiLSTM)学习长距离文本信息,结合条件随机场(Conditional random field, CRF)学习标签约束信息。对比18个不同信息抽取模型的训练效果,结果表明,本研究提出的BERT-PGD-BiLSTM-CRF模型精确率为95.4%、召回率为97.0%、F1值...  相似文献   

16.
基于改进YOLOv3网络模型的茶草位置检测算法   总被引:1,自引:0,他引:1  
精准高效的茶草识别是智能茶园植保机械进行除草工作的关键。针对目前茶园除草智能化程度较低等问题,提出改进YOLOv3网络模型的茶草检测算法。首先,分季节和时间段,在多个茶叶品种的种植园中以自适应的距离和角度采集茶草混合图像并建立试验数据集。接着,使用K均值聚类算法重新设计先验锚框尺度。然后,以YOLOv3网络模型为基础,选取17×17的网格划分图像区域;采用残差网络(ResNet)作为主干网;加入过程提取层,增强草株检测性能。最后在原损失函数中引入广义交并比损失。通过消融试验和不同目标检测算法对比试验验证此改进算法对茶树与杂草的检测效果。试验结果表明,改进 YOLOv3网络模型对杂草的检测精确率和召回率分别为85.34%和91.38%,对茶树的检测精确率和召回率最高达到82.56%和90.12%;与原YOLOv3网络模型相比,检测精确率提高8.05%,并且每秒传输帧数达到52.83 Hz,是Faster R-CNN网络模型的16倍。这些数据说明所提算法在茶园复杂环境下,不仅对于茶树和杂草具有更好的识别效果,而且满足实时检测的要求,可以为智能茶园植保机械提供技术支持。  相似文献   

17.
稻田杂草位置获取是靶向喷施除草剂和机械智能除草的基础,为实现自然光照环境和水田复杂背景下稻田苗期杂草的信息获取。以稻田恶性杂草野慈姑为研究对象,提出一种基于全卷积神经网络的稻田苗期杂草语义分割方法,利用DeepLabV3+对秧苗和杂草进行语义分割进而获取的杂草位置信息。首先人工田间采集稻田苗期杂草野慈姑的RGB图像,通过图像标注工具LabelMe人工标注图像中秧苗、杂草和背景的各个像素点,70%数据集用于DeepLabV3+网络模型参数的训练,30%数据集用于测试DeepLabV3+性能。然后与FCN和U-Net两种语义分割方法进行比较,所提出的DeepLabV3+语义分割方法准确率、均正比、频权交并比和F值等性能指标都最优,试验得出:DeepLabV3+模型像素准确率最高达到92.2%,高于U-Net和FCN方法的准确率92.1%和84.7%。所提出的方法能对稻田苗期杂草、秧苗和背景像素进行准确分割,满足智能除草和除草剂靶向喷施的实际应用需求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号