首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到14条相似文献,搜索用时 209 毫秒
1.
稻穗精准分割是准确估测水稻产量的关键。为实现大田环境下不同品种与生育期稻穗的准确分割,该研究提出了基于注意力机制的稻穗分割网络(Double Branch Squeeze-and-Excitation Network,DBSE-Net)。首先,提出一个双分支压缩与激励(Double Branch Squeeze-and-Excitation,DBSE)注意力模块,通过同时使用全局平均池化(Global Average Pooling,GAP)和全局最大池化(Global Max Pooling,GMP)编码输入特征的通道信息,以实现更精准的通道注意力推断。然后,为了强化稻穗特征并抑制背景区域特征,将DBSE模块添加到编码-解码分割框架中构建DBSE-Net分割网络。最后,在自采集的稻穗图像数据集上进行分割性能测试,DBSE-Net对稻穗分割的像素准确率、平均交并比和F1分数分别达到了94.32%、87.59%和91.86%,比次优模型DeeplabV3+的结果分别高出1.61、2.56和1.20个百分点,在单张256×256(像素)图像上耗时0.03 s,是DeeplabV3+分割速度的5.3倍。在公开的稻穗图像数据集上进行泛化性能测试,DBSE-Net能够有效分割出稻穗区域。该研究结果表明,DBSE-Net能够对不同品种与生育期稻穗实现高效精准分割,具有良好的泛化性,可以为水稻产量评估提供参考。  相似文献   

2.
多尺度融合卷积神经网络的黄瓜病害叶片图像分割方法   总被引:3,自引:3,他引:0  
黄瓜病害叶片中的病斑区域分割是病害检测与类型识别的关键步骤,分割效果将直接影响病害检测和识别的精度。针对传统方法对于黄瓜病害叶片图像分割精度低和泛化能力弱等问题,提出一种基于多尺度融合卷积神经网络(Multi-ScaleFusionConvolutionalNeuralNetworks,MSF-CNNs)的黄瓜病害叶片分割方法。MSF-CNNs由编码网络(EncoderNetworks,ENs)和解码网络(DecoderNetworks,DNs)两部分组成,其中ENs为一个多尺度卷积神经网络组成,用于提取病害叶片图像的多尺度信息;DNs基于九点双线性插值算法,用于恢复输入图像的尺寸和分辨率。在MSF-CNNs模型训练的过程中,使用一种渐进微调的迁移学习方法加速模型的训练,提高模型的分割精度。在复杂背景下的作物病害叶片图像数据库上进行病害叶片图像分割试验,并与现有的分割方法全卷积网络(FullyConvolutional Networks,FCNs)、Seg Net、U-Net、Dense Net进行比较。结果表明,该MSF-CNNs能够满足复杂环境下的黄瓜病害叶片图像分割需求,像素分类精度为92.38%、平均分割准确率为93.12%、平均交并比为91.36%、频率加权交并比为89.76%。与FCNs、Seg Net、U-Net、Dense Net相比较,MSF-CNNs的平均分割精度分别提高了13.00%、10.74%、10.40%、10.08%和6.40%。使用渐进学习训练方式后,训练时间缩短了0.9 h。该方法为进一步的黄瓜病害检测和识别方法研究提供了参考。  相似文献   

3.
稻穗表型是表征水稻生长状况和产量品质的关键参数,稻穗表型的准确监测对于大田精准管理和水稻智慧育种具有重要意义。无人机图谱数据已被广泛用于水稻生长监测,然而大部分研究主要集中在水稻的营养生长阶段,针对抽穗期和成熟期稻穗表型监测方面的研究非常有限。因此,该研究利用无人机多源图谱数据进行水稻稻穗表型监测研究,分析了不同氮肥梯度和生长时期对稻穗表型的影响,构建了稻穗覆盖度、生物量以及倒伏等监测模型。结果表明,不同生长时期和氮肥梯度的稻穗表型呈现显著差异,稻穗覆盖度与图像特征高度相关。利用粒子群优化算法(Particle Swarm Optimization,PSO)和支持向量机(Support Vector Machine,SVM)回归模型能够从可见光图像中准确识别稻穗,计算的穗覆盖度与实际标记值高度相关,决定系数(coefficient of determination,R2)为0.87,将此结果与多光谱图像反射率融合,利用随机森林(Random Forest,RF)回归模型可以提高稻穗覆盖度的评估精度,R2为0.93,相对均方根误差(relative Root Mean Square Error,rRMSE)为9.47%。融合可见光图像的颜色和纹理以及多光谱图像的光谱反射率改善了穗生物量的评估精度,R2高达0.84,rRMSE为8.68%,此模型能够在不同种植年间迁移,进一步利用模型更新添加10%新样本能够改善模型迁移能力。基于PSO-SVM分类模型,联合可见光图像的颜色和纹理以及多光谱图像的光谱反射率也准确地识别稻穗倒伏,准确率达99.87%。上述研究结果证明了无人机遥感用于水稻稻穗表型监测的可行性,可为作物精准管理和智慧育种提供决策支持。  相似文献   

4.
基于高斯HI颜色算法的大田油菜图像分割   总被引:4,自引:3,他引:1  
针对自然条件下光照条件变化给大田油菜图像分割带来的问题,该文研究了油菜图像的高斯HI颜色分割算法,为作物生长发育周期的自动识别提供前期准备。已有统计结果表明,在仅保留绿色作物的图像中,不同色调值的像素数量服从高斯分布。该文将去掉背景信息的样本数据从RGB颜色模型转换至HSI颜色模型后,统计各个光强的所有像素对应的色调值,并计算其期望值和方差,依次得出所有强度所对应色调值的期望值和方差,建立出油菜作物色调强度查找表(hue intensity-look up table)。在此基础上,计算每个像素的色调值和期望值之间的差值,若差值小于阈值,则像素被分割为作物,否则为背景。为了在高斯HI颜色分割算法中确定合适的阈值,该研究选取了45幅不同天气状况(晴天、阴天和雨天)不同发育阶段(苗期、三叶期和四叶期)的油菜图像作为样本,探讨阈值的选取与分割结果的关系。结果表明阈值在[2.4,2.6]内分割效果最佳,油菜目标的形状特征完整度最好。为了对图像分割结果进行评价,分别利用高斯HI颜色模型、CIVE(color index of vegetation extraction)、EXG-EXR(excess green-excess red)、EXG(excess green)和VEG(vegetation)算法对15幅不同天气状况的图像进行分割。从视觉效果上来看,高斯HI算法仅需少量样本,即可达到满意分割效果。与其他方法相比,高斯HI颜色分割算法的误分割率(misclassification error,ME)仅为1.8%,相对目标面积误差(relative object area error,RAE)仅为3.6%,均优于其他4种算法的试验结果。在分割结果稳定性上,高斯HI颜色算法表现最好,其ME和RAE值的标准差最低,分别为0.7%和4.5%。试验结果表明,高斯HI颜色算法能取得较好的分割效果,而且对光照条件变化并不敏感,同时,能够充分保留油菜形状特征的完整性,为后期油菜生长发育周期的自动识别提供可靠数据。  相似文献   

5.
无人机航拍林业虫害图像分割复合梯度分水岭算法   总被引:4,自引:4,他引:0  
针对林业信息监测方式实时性差、监测范围有限等问题,为更加实时、准确地对林业虫害信息进行监测并计算监测样地中虫害区域比例,该文在搭建面向林区虫害监测的多旋翼无人飞行器航拍监测系统基础上,提出了一种基于复合梯度分水岭算法的图像分割方法。该方法引入全局直方图均衡化消除了图像暗纹理的影响,并采用形态学混合开闭重构滤波完成了图像样本的去噪处理。计算灰度图像各像素点的复合梯度实现了非相关区域(道路及裸地)的提取,最终利用分水岭算法实现了监测图像虫害区域的分割提取。利用该文所提算法对8幅虫害侵蚀程度不同的监测图像进行分割,并与传统分水岭算法、K-means聚类算法进行对比试验。试验结果表明,该文算法虫害区域提取的平均相对误差率分别降低6.56%、3.17%,平均相对极限测量精度分别改善7.19%、2.41%,能够相对准确地将虫害区域从监测图像中分割出来,可为后续林业虫害监测与防护提供参考。  相似文献   

6.
改进Otsu算法与ELM融合的自然场景棉桃自适应分割方法   总被引:6,自引:5,他引:1  
王见  周勤  尹爱军 《农业工程学报》2018,34(14):173-180
针对动态行进过程中拍摄的自然棉田场景图像的棉桃分割问题,提出了一种改进的自适应优化分割方法。首先利用改进的Otsu分割算法定位棉桃区域,对棉桃和背景区域像素点的RGB值分别采样;将样本用于训练ELM(extreme learning machine)分类模型;把图像分割转化为像素分类问题,用分类模型对棉桃图像进行像素分类以实现棉桃图像的分割。对晴天和阴天场景下自然棉田的图像进行了算法验证,能正确分割棉桃并定位棉桃位置,实现了非结构光环境下对棉桃的无监督的采样和分割定位,每幅图像的平均分割时间为0.58 s,晴天和阴天状况下棉桃的平均识别率分别达到94.18%和97.56%。将该算法与经典分类算法SVM(support vector machine)和BP在增加纹理特征和采用RGB特征的情况下进行对比,并分析了该算法在分割速度和识别率上都有较大优势的原因。试验证明该算法在棉桃分割中有很好的实时性、准确性和适应性,可为智能采棉机的棉桃识别算法提供参考。  相似文献   

7.
基于混沌优化K均值算法的马铃薯芽眼的快速分割   总被引:2,自引:1,他引:1  
为提高芽眼分割的准确性,该文实现了基于混沌优化K均值算法的马铃薯芽眼的快速分割。K均值算法具有有效性及易于实现的优点,但是容易陷入局部最优值的缺点造成了其聚类结果的不准确。混沌系统由于其遍历性和不重复性,能够以较快的速度执行全局搜索。该文提出的算法的主要思想就是将混沌变量映射到K均值算法的变量中,用混沌变量代替其寻找全局最优值。分割试验结果表明:该文提出的算法,不仅在分割准确性上优于当下流行的K均值算法和模糊C均值算法,而且在运行时间上也更胜一筹,K均值算法和模糊C均值算法分割一幅马铃薯芽眼的图像所需的平均时间分别为2.895 5 s和3.556 4 s,而该文提出的算法仅需1.109 s。当聚类数大于3时,该文提出的算法在运行时间上受聚类数目的影响非常小,这一特点可用于其他一些适合聚类数大于3的农作物上。试验结果还表明,对于该文中的样本,最佳聚类数不宜超过3。最后,精度试验验证了该文提出的算法能够对样本中的马铃薯芽眼实现完全,无遗漏的分割,总的分割精度为98.87%,其中,对正常的马铃薯芽眼分割精度可达100%,对特殊马铃薯的芽眼分割精度为91.67%,总体分割精度较好。因此,该文提出的算法能够为后续种薯的自动切块提供参考。  相似文献   

8.
基于U-Net模型的含杂水稻籽粒图像分割   总被引:6,自引:5,他引:1  
陈进  韩梦娜  练毅  张帅 《农业工程学报》2020,36(10):174-180
含杂率是水稻联合收获机的重要收获性能指标之一,作业过程中收获籽粒掺杂的杂质包含作物的枝梗和茎秆等,为了探索籽粒含杂率和机器作业参数之间的关联,需要实时获取籽粒含杂率数据。该文基于机器视觉的U-Net模型对联合收获机水稻收获籽粒图像进行分割,针对传统分割算法中存在运算量大、耗时多、图像过分割严重和分割参数依赖人为经验难以应对各种复杂谷物图像等问题,采用深度学习模型多次训练学习各分割类别的像素级图像特征,提出基于U-Net深度学习模型的收获水稻籽粒图像中谷物、枝梗和茎秆的分割方法,采用改进的U-Net网络增加网络深度并加入Batch Normalization层,在小数据集上获得更丰富的语义信息,解决图像训练数据匮乏和训练过拟合问题。选取田间试验采集的50张收获水稻籽粒图像,采用Labelme方式进行标注和增强数据,裁剪1 000张256像素×256像素小样本,其中700张作为训练集,300张作为验证集,建立基于改进U-Net网络的收获水稻籽粒图像分割模型。采用综合评价指标衡量模型的分割准确度,对随机选取的60张8位RGB图像进行验证。试验结果证明,水稻籽粒的分割综合评价指标值为99.42%,枝梗的分割综合评价指标值为88.56%,茎秆的分割综合评价指标值为86.84%。本文提出的基于U-Net模型的收获水稻籽粒图像分割算法能够有效分割水稻籽粒图像中出现的谷物、枝梗和茎秆,时性更强、准确度更高,可为后续收获水稻籽粒图像的进一步识别处理提供技术支撑,为水稻联合收获机含杂率实时监测系统设计提供算法参考。  相似文献   

9.
基于卷积神经网络与迁移学习的油茶病害图像识别   总被引:21,自引:12,他引:9  
传统的植物病害图像识别准确率严重依赖于耗时费力的人工特征设计。该文利用深度卷积神经网络强大的特征学习和特征表达能力来自动学习油茶病害特征,并借助迁移学习方法将Alex Net模型在Image Net图像数据集上学习得到的知识迁移到油茶病害识别任务。对油茶叶片图像进行阈值分割、旋转对齐、尺度缩放等预处理后,按照病害特征由人工分为藻斑病、软腐病、煤污病、黄化病和健康叶5个类别。每个类别各选取750幅图像组成样本集,从样本集中随机选择80%的样本用作训练集,剩余20%用作测试集。利用随机裁剪、旋转变换和透视变换对训练集进行数据扩充,以模拟图像采集的不同视角和减少网络模型的过拟合。在Tensor Flow深度学习框架下,基于数据扩充前后的样本集,对Alex Net进行全新学习和迁移学习。试验结果表明,迁移学习能够明显提高模型的收敛速度和分类性能;数据扩充有助于增加数据的多样性,避免出现过拟合现象;在迁移学习和数据扩充方式下的分类准确率高达96.53%,对藻斑病、软腐病、煤污病、黄化病、健康叶5类病害的F1得分分别达到94.28%、94.67%、97.31%、98.34%和98.03%。该方法具有较高的识别准确率,对平移、旋转具有较强的鲁棒性,可为植物叶片病害智能诊断提供参考。  相似文献   

10.
水稻冠层图像分割方法对比研究   总被引:1,自引:0,他引:1  
水稻冠层信息在自动化管理上具有重要指导意义,但田间多变光照强度环境显著降低了水稻冠层图像分割和信息提取的精度。为降低光照强度的干扰,本文基于RGB、CIEL~*a~*b~*、HSV色彩空间和多色彩空间(包括RGB、CIEL~*a~*b~*和HSV色彩空间)构建水稻冠层图像的色彩特征组合,然后通过支持向量机(SVM)的线性核函数对水稻冠层图像进行分类识别,其分割方法分别定义为rgb-SVM、lab-SVM、hsv-SVM和Multi-SVM。同时,利用此方法对不同光照强度下的水稻冠层图像进行分割,并与常用的Ex GOtsu分割方法进行对比,比较不同方法的分割效果和光强稳健性。结果表明,rgb-SVM的分割效果优于Ex GOtsu方法,但对晴天条件下获取的水稻冠层图像的分割误差仍较大,光强稳健性低;lab-SVM和hsv-SVM分割方法的分割精确度较低,存在一定的欠分割现象;基于多色彩空间和支持向量机的Multi-SVM分割方法的分割效果最佳,该方法对不同光强下获取的水稻冠层图像的分割误差均控制在4.00%以内,具有较好的光强稳健性。因此,基于多色彩空间和支持向量机的Multi-SVM分割方法能够相对准确地将水稻像元从水稻冠层图像中分割出来,且对田间多变光强条件具有一定的稳健性,可为田间水稻生长发育监测和自动化管理提供一定的技术支持。  相似文献   

11.
基于改进全卷积网络的棉田冠层图像分割方法   总被引:6,自引:5,他引:1  
针对传统的全卷积网络分割精度低、效果差等问题,该文提出一种结合条件随机场的改进全卷积网络棉田冠层图像分割方法。首先通过提取和学习图像特征对全卷积网络进行训练以优化其分割性能,得到初步分割结果和训练后的全卷积网络模型;接着将初步分割结果以像素和像素对应的分类向量形式输入到条件随机场中,同时结合像素间相对关系构建能量函数再进行训练,对初步分割结果进行优化得到训练后的条件随机场模型;进而通过验证过程对全卷积网络和条件随机场模型参数进一步调优,得到最优的全卷积网络和条件随机场;最后结合最优的全卷积网络和条件随机场实现棉田冠层图像分割并进行试验。试验结果表明:该方法的平均像素准确率为83.24%,平均交并比为71.02%,平均速度达到0.33 s/幅,与传统的全卷积网络分割性能相比分别提升了16.22和12.1个百分点,改进效果明显;与Zoom-out和CRFas RNN(conditional random fields as recurrent neural networks)分割方法进行对比,平均像素准确率分别提升了4.56和1.69个百分点,平均交并比分别提升了7.23和0.83个百分点;与逻辑回归方法和SVM(support vector machine)方法进行对比,平均像素准确率分别提升了3.29和4.01个百分点,平均交并比分别提升了2.69和3.55个百分点。该文方法在背景复杂、光照条件复杂等环境下可以准确分割出冠层目标区域,鲁棒性较好,可为棉花生长状态自动化监测提供参考。  相似文献   

12.
基于双注意力语义分割网络的田间苗期玉米识别与分割   总被引:6,自引:6,他引:0  
为实现复杂田间场景中幼苗期玉米和杂草的准确识别与区域划分,该研究提出改进的双注意力语义分割方法,通过获取形态边界实现玉米幼苗的识别与精细分割,在此基础上采用形态学处理方法识别图像中除玉米外的全部杂草区域。首先对6种当前最高性能的语义分割网络进行对比,确定模型原始架构;建立幼苗期玉米语义分割模型,包括改进深层主干网络增强特征,引入双注意力机制构建特征的场景语义依赖关系,以编码器-解码器结构组建模型并增加辅助网络优化底层特征,改进损失函数协调模型整体表现,制定改进的迁移学习策略;提出图像形态学处理方法,基于玉米像素分割结果,生成杂草分割图。测试结果表明,模型的平均交并比、平均像素识别准确率分别为94.16%和95.68%,相比于原网络分别提高1.47%和1.08%,识别分割速度可达15.9帧/s。该研究方法能够对复杂田间场景中的玉米和杂草进行准确识别与精细分割,在仅识别玉米的前提下识别杂草,有效减少图像标注量,避免田间杂草种类的多样性对识别精度的影响,解决玉米与杂草目标交叠在形态边界上难以分割的问题,研究结果可为智能除草装备提供参考。  相似文献   

13.
基于深度卷积神经网络的水稻穗瘟病检测方法   总被引:15,自引:9,他引:6  
穗瘟是一种严重影响水稻产量及品质的多发病害,有效地检测穗瘟是水稻病害防治的重要任务。该文提出基于深度卷积神经网络GoogLeNet模型的水稻穗瘟病检测方法,该方法利用Inception基本模块重复堆叠构建主体网络。Inception模块利用多尺度卷积核提取不同尺度穗瘟病斑分布式特征并进行级联融合。GoogLeNet利用其结构深度和宽度,学习复杂噪声高光谱图像的隐高维特征表达,并在统一框架中训练Softmax分类器,实现穗瘟病害预测建模。为验证该研究所提方法的有效性,以1 467株田间采集的穗株为试验对象,采用便携式户外高光谱成像仪Gaia Field-F-V10在自然光照条件下拍摄穗株高光谱图像,并由植保专家根据穗瘟病害描述确定其穗瘟标签。所有高光谱图像-标签数据对构成GoogLeNet模型训练和验证的原始数据集。该文采用随机梯度下降算法(SGD,stochastic gradient descent)优化GoogLeNet模型,提出随机扔弃1个波段图像和随机平移平均谱图像亮度的2种数据增强策略,增加训练数据规模,防止模型过拟合并改善其泛化性能。经测试,验证集上穗瘟病害预测最高准确率为92.0%。试验结果表明,利用GoogLeNet建立的深度卷积模型,可以很好地实现水稻穗瘟病害的精准检测,克服室外自然光条件下利用光谱图像进行病害预测面临的困难,将该类研究往实际生产应用推进一大步。  相似文献   

14.
基于烤烟透射特征的烟叶图像分割研究   总被引:2,自引:0,他引:2  
在专门设计的灯箱中拍摄烤烟烟叶的反射和透射图像,对这两类图像分别以3×3像素矩阵作为区域对象采样,统计比较了烟叶、背景两区域的RGB属性特征,发现透射图像烟叶区域绝大多数像素的蓝色属性等于零,少数像素的蓝色属性大于零,并在采样矩阵中呈不连续分布, 矩阵内9个像素蓝色属性的相对标准偏差(RSD)或等于零,或大于100%。研究采用该特征作为依据,对烟叶透射图像进行了区域统计法分割。结果表明分割精度高于点统计法,每片烟叶像素数平均高出0.65%,较好地保留了目标图像的原始特征信息。该研究提出的图像分割方法有利于提高分割结果的可信度,为利用烟叶透射特征进行后续研究奠定了基础。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号