首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 296 毫秒
1.
基于深度掩码的玉米植株图像分割模型   总被引:4,自引:4,他引:0  
随着深度学习技术在植物表型检测领域的应用,有监督深度学习逐渐成为植物表型信息的提取与分析的主要方法。但由于植物结构复杂、细节特征多,人工标注的成本和质量问题已成为制约技术发展的瓶颈。该研究针对玉米苗期植株图像分割问题提出一种基于深度掩码的卷积神经网络(Depth Mask Convolutional Neural Network,DM-CNN),将深度图像自动转换深度掩码图像,并替代人工标注样本完成图像分割网络训练。试验结果表明,在相同的网络训练参数下,通过测试DM-CNN得到的平均交并比为59.13%,平均召回率为65.78%,均优于人工标注样本对应的分割结果(平均交并比为58.49%,平均召回率为64.85%);此外,在训练样本中加入10%室外玉米苗期图像后,DM-CNN对室外测试集的平均像素精度可以达到84.54%,证明DM-CNN具有良好的泛化能力。该研究可为高通量、高精度的玉米苗期表型信息获取提供低成本解决方案及技术支持。  相似文献   

2.
基于有监督深度学习的图像分割任务通常利用像素级标签来保证模型的训练和测试精度,但受植株复杂形态影响,保证像素级标签精度的同时,时间成本也显著提高。为降低深度模型训练成本,同时保证模型能够有较高的图像分割精度,该研究提出一种基于边界框掩膜的深度卷积神经网络(Bounding-box Mask Deep Convolutional Neural Network,BM-DCNN),在有监督深度学习模型中融入伪标签生成模块,利用伪标签代替真值标签进行网络训练。试验结果表明,伪标签与真值标签的平均交并比为81.83%,平均余弦相似度为86.14%,高于Grabcut类方法生成伪标签精度(与真值标签的平均交并比为40.49%,平均余弦相似度为61.84%);对于玉米苗期图像(顶视图)计算了三种人工标注方式的时间成本,边界框标签为2.5 min/张,涂鸦标标签为15.8 min/张,像素级标签为32.4 min/张;利用伪标签样本进行训练后,BM-DCNN模型的两种主干网络当IoU值大于0.7时(AP70),BM-DCNN模型对应的实例分割精度已经高于有监督模型。BM-DCNN模型的两种主干网络对应的平均准确率分别为67.57%和75.37%,接近相同条件下的有监督实例分割结果(分别为67.95%和78.52%),最高可达到有监督分割结果的99.44%。试验证明BM-DCNN模型可以使用低成本的弱标签实现高精度的玉米苗期植株图像实例分割,为基于图像的玉米出苗率统计以及苗期冠层覆盖度计算提供低成本解决方案及技术支持。  相似文献   

3.
基于改进全卷积网络的棉田冠层图像分割方法   总被引:6,自引:5,他引:1  
针对传统的全卷积网络分割精度低、效果差等问题,该文提出一种结合条件随机场的改进全卷积网络棉田冠层图像分割方法。首先通过提取和学习图像特征对全卷积网络进行训练以优化其分割性能,得到初步分割结果和训练后的全卷积网络模型;接着将初步分割结果以像素和像素对应的分类向量形式输入到条件随机场中,同时结合像素间相对关系构建能量函数再进行训练,对初步分割结果进行优化得到训练后的条件随机场模型;进而通过验证过程对全卷积网络和条件随机场模型参数进一步调优,得到最优的全卷积网络和条件随机场;最后结合最优的全卷积网络和条件随机场实现棉田冠层图像分割并进行试验。试验结果表明:该方法的平均像素准确率为83.24%,平均交并比为71.02%,平均速度达到0.33 s/幅,与传统的全卷积网络分割性能相比分别提升了16.22和12.1个百分点,改进效果明显;与Zoom-out和CRFas RNN(conditional random fields as recurrent neural networks)分割方法进行对比,平均像素准确率分别提升了4.56和1.69个百分点,平均交并比分别提升了7.23和0.83个百分点;与逻辑回归方法和SVM(support vector machine)方法进行对比,平均像素准确率分别提升了3.29和4.01个百分点,平均交并比分别提升了2.69和3.55个百分点。该文方法在背景复杂、光照条件复杂等环境下可以准确分割出冠层目标区域,鲁棒性较好,可为棉花生长状态自动化监测提供参考。  相似文献   

4.
植物叶面积可以反映出植物的生长速率、养分吸收以及光合作用能力,针对锯齿状边缘的黄瓜叶片分割精度较低,叶面积测量误差较大等问题。该研究提出一种深度卷积网络模型Marm,在Mask R-CNN的基础上利用Sobel算子进行边缘检测,使模型生成的掩膜更接近叶片的边缘。另外,引入边缘损失以提升叶片边缘的分割精度。借助参照物标签,利用模型输出的掩膜图像进行面积计算,获得黄瓜叶片在不同生长周期的叶面积。试验结果表明,Marm模型精确率、召回率和交并比达到99.1%、94.87%和92.18%,比原始的Mask R-CNN分别提高1.28个百分点、1.13个百分点和1.05个百分点,面积误差率下降1.43个百分点。当图像中存在叶片遮挡和阴影等多种影响,黄瓜叶片的面积误差率仍然能保持在5.45%左右。该研究有效解决了锯齿状边缘的叶片分割问题,将为植物表型研究提供技术支撑。  相似文献   

5.
基于深度全卷积神经网络的大田稻穗分割   总被引:9,自引:7,他引:2  
稻穗的准确分割是获取水稻穗部性状、实现水稻表型自动化测量的关键。该研究应用水稻图像数据集及数据增广技术,离线训练了用于稻穗分割的3个分别基于Seg Net,Deep LAB和PSPNet的全卷积神经网络。综合考虑分割性能和计算速度,优选了基于Seg Net的网络,称为Panicle Net。在线分割阶段先将原始图像划分为子图,由Panicle Net分割子图,再拼接子图得到分割结果。比较该算法及现有作物果穗分割算法Panicle-SEG、HSeg、i2滞后阈值法及joint Seg,该算法对与训练样本同年度拍摄样本Qseg值0.76、F值0.86,不同年度样本Qseg值0.67、F值0.80,远优于次优的Panicle-SEG算法,且计算速度约为Panicle-SEG算法的35倍。该算法能克服稻穗边缘严重不规则、不同品种及生育期稻穗外观差异大、穂叶颜色混叠和复杂大田环境中光照、遮挡等因素的干扰,提升稻穗分割准确度及效率,进而服务于水稻育种栽培。  相似文献   

6.
基于U-Net网络和无人机影像的松材线虫病变色木识别   总被引:3,自引:3,他引:0  
松材线虫病是由松墨天牛等媒介昆虫快速传播的一种针对松树的毁灭性流行病。及时对染病变色木进行识别、定位,并砍伐清除是当前控制该病扩散蔓延的主要手段。该研究使用无人机航拍获取大区域染病松林可见光影像,结合深度学习分割网络U-Net开展染病松材变色木图像分割研究。使用制作的样本数据训练U-Net网络,得到训练精度和验证精度分别为98.74%和97.76%。使用混淆矩阵评估U-Net网络分割精度,表明变色木图像分割的用户精度和生产者精度分别达到93.51%和97.30%,误报率6.49%,漏报率2.70%。总体上,U-Net网络变色木识别精度95.17%,Kappa系数0.90,达到较高精度。U-Net分割网络运用于松材线虫病变色木图像识别较随机森林方法能更有效地降低误报,减少分割噪音。  相似文献   

7.
反卷积引导的番茄叶部病害识别及病斑分割模型   总被引:12,自引:9,他引:3  
针对当前植物叶部病害识别模型易受阴影、遮挡物及光线强度干扰,特征提取具有盲目和不确定性的问题,该研究构建一种基于反卷积引导的VGG网络(Deconvolution-GuidedVGGNet,DGVGGNet)模型,同时实现植物叶部病害种类识别与病斑分割。首先使用VGGNet计算多分类交叉熵损失进行病害分类训练,得到病害分类结果;其次设计反向全连接层,将分类结果恢复为特征图形式;然后采用上采样与卷积操作相结合的方法实现反卷积,利用跳跃连接融合多种特征恢复图像细节;最后使用少量病斑监督,对每个像素点使用二分类交叉熵损失进行训练,引导编码器关注真实的病斑部位。试验结果表明,该研究模型的病害种类识别精度达99.19%,病斑分割的像素准确率和平均交并比分别达94.66%和75.36%,在遮挡、弱光等环境下具有良好的鲁棒性。  相似文献   

8.
基于卷积神经网络的温室黄瓜病害识别系统   总被引:25,自引:14,他引:11  
基于图像处理和深度学习技术,该研究构建了一个基于卷积神经网络的温室黄瓜病害识别系统。针对温室现场采集的黄瓜病害图像中含有较多光照不均匀和复杂背景等噪声的情况,采用了一种复合颜色特征(combinations of color features,CCF)及其检测方法,通过将该颜色特征与传统区域生长算法结合,实现了温室黄瓜病斑图像的准确分割。基于温室黄瓜病斑图像,构建了温室黄瓜病害识别分类器的输入数据集,并采用数据增强方法将输入数据集的数据量扩充了12倍。基于扩充后的数据集,构建了基于卷积神经网络的病害识别分类器并利用梯度下降算法进行模型训练、验证与测试。系统试验结果表明,针对含有光照不均匀和复杂背景等噪声的黄瓜病害图像,该系统能够快速、准确的实现温室黄瓜病斑图像分割,分割准确率为97.29%;基于分割后的温室黄瓜病斑图像,该系统能够实现准确的病害识别,识别准确率为95.7%,其中,霜霉病识别准确率为93.1%,白粉病识别准确率为98.4%。  相似文献   

9.
为原位采集番茄根系图像,解决番茄根系表型原位测量问题,该研究提出一种基于阵列式ESP32-CAM的番茄根系表型原位测量方法。通过4×4阵列式ESP32-CAM结合OV2640镜头模组实现土壤中根系图像原位自动化无线采集,并采用张正友标定法实现相机标定和畸变校正,利用尺度不变特征转换和最邻近分类的特征检测匹配算法实现图像配准,基于离线标定方法获取相机间变换矩阵实现根系图像拼接;通过引入多头自注意力机制改进U型卷积神经网络(Uarchitecture convolutional networks,U-Net)模型对根系图像进行语义分割,采用形态学处理和骨架提取测量根系长度、面积、平均直径、根深和根宽。研究结果表明:相机阵列图像的拼接迭代均方根误差小于1.11 mm,全局拼接图像的拼接融合质量评分大于0.85;改进后的U-Net模型应用于番茄根系分割的精度、召回率、交并比和F1值分别为86.06%、78.98%、71.41%和82.37%,相比于原始U-Net模型分别提高了18.97、13.21、21.67和16.30个百分点;与人工测量值相比,根系的面积、长度、平均直径、根深和根宽的平均绝...  相似文献   

10.
基于卷积神经网络与迁移学习的油茶病害图像识别   总被引:21,自引:12,他引:9  
传统的植物病害图像识别准确率严重依赖于耗时费力的人工特征设计。该文利用深度卷积神经网络强大的特征学习和特征表达能力来自动学习油茶病害特征,并借助迁移学习方法将Alex Net模型在Image Net图像数据集上学习得到的知识迁移到油茶病害识别任务。对油茶叶片图像进行阈值分割、旋转对齐、尺度缩放等预处理后,按照病害特征由人工分为藻斑病、软腐病、煤污病、黄化病和健康叶5个类别。每个类别各选取750幅图像组成样本集,从样本集中随机选择80%的样本用作训练集,剩余20%用作测试集。利用随机裁剪、旋转变换和透视变换对训练集进行数据扩充,以模拟图像采集的不同视角和减少网络模型的过拟合。在Tensor Flow深度学习框架下,基于数据扩充前后的样本集,对Alex Net进行全新学习和迁移学习。试验结果表明,迁移学习能够明显提高模型的收敛速度和分类性能;数据扩充有助于增加数据的多样性,避免出现过拟合现象;在迁移学习和数据扩充方式下的分类准确率高达96.53%,对藻斑病、软腐病、煤污病、黄化病、健康叶5类病害的F1得分分别达到94.28%、94.67%、97.31%、98.34%和98.03%。该方法具有较高的识别准确率,对平移、旋转具有较强的鲁棒性,可为植物叶片病害智能诊断提供参考。  相似文献   

11.
基于改进Mask R-CNN模型的植物叶片分割方法   总被引:1,自引:1,他引:0  
袁山  汤浩  郭亚 《农业工程学报》2022,38(1):212-220
通过图像处理对植物叶片进行分割是研究植物表型性状的基础,但叶片间相互遮挡、叶片边缘特征不明显以及幼叶目标过小会对叶片分割效果造成很大的障碍.针对上述问题,该研究提出了一种基于改进Mask R-CNN模型的植物叶片分割方法,通过引入级联检测模块对模型检测分支进行改进,以提高遮挡叶片检测质量;利用注意力机制和一个2层3×3...  相似文献   

12.
基于SegNet语义模型的高分辨率遥感影像农村建设用地提取   总被引:3,自引:2,他引:1  
针对传统分类算法、浅层学习算法不适用于高空间分辨率遥感影像中农村建筑物信息提取的问题,该文以河北省霸州市高空间分辨率遥感影像WorldView-2为数据源,利用182 064幅128×128像素大小的影像切片为训练样本,选取基于深度卷积神经网络的SegNet图像语义分割算法对遥感影像中的农村建筑物进行提取,并与传统分类算法中的最大似然法(maximum likelihood,ML)和ISO聚类、浅层学习算法中的支持向量机(support vector machine,SVM)和随机森林(random forest,RF)以及深层语义分割算法中的金字塔场景解析网络(pyramid scene parsing network,PSPNet)的试验结果作对比分析。研究结果表明:SegNet不仅能够高效利用高空间分辨率遥感影像中农村建筑物的光谱信息而且还能够充分利用其丰富的空间特征信息,最终形成较好的分类模型,该算法在验证样本中的分类总体精度为96.61%,Kappa系数为0.90,建筑物的F1值为0.91,其余5种分类算法的总体精度、Kappa系数、建筑物的F1值都分别在94.68%、0.83、0.87以下。该研究可以为高空间分辨率遥感影像农村建设用地提取研究提供参考。  相似文献   

13.
基于病斑形状和神经网络的黄瓜病害识别   总被引:11,自引:9,他引:2  
为了研究基于图像处理的黄瓜病害识别方法,试验中采集了黄瓜细菌性角斑病和黄瓜霜霉病叶片进行图像研究。在黄瓜病斑的图像分割方面,尝试了边缘检测法和最大类间方差法进行图像处理。边缘检测法提取出来的病态部位轮廓不是很完整,而利用最大类间方差法的图像分割效果较好。试验中提取了10个形状特征,选取黄瓜细菌性角斑病和黄瓜霜霉病叶片的各50个样本,其中每个病害的前30个样本,共计60个样本作为训练样本输入神经网络,对2种黄瓜病害叶片的后20个样本,共计40个样本进行测试,正确识别率达到了100%,说明通过病斑形状和神经网络进行黄瓜细菌性角斑病和黄瓜霜霉病的识别是可行的。  相似文献   

14.
基于通道特征金字塔的田间葡萄实时语义分割方法   总被引:1,自引:1,他引:0  
复杂环境下葡萄的快速检测识别是智能采摘的关键步骤,为解决目前葡萄识别精度低和实时性差的问题,该研究提出一种轻量级葡萄实时语义分割模型(Grape Real-time Semantic Segmentation Model,GRSM)。首先,利用通道特征金字塔(Channel-wise Feature Pyramid,CFP)模块进行特征提取,该模块通过1?3和3?1空洞卷积的跳跃连接,在减少模型参数量的同时提取葡萄图像的多尺度特征和上下文信息;然后,采用池化卷积融合结构完成下采样,增加可训练参数以减少信息损失;最后,利用跳跃连接融合多种特征恢复图像细节。试验结果表明:该研究所提出的模型在田间葡萄测试集上达到了78.8%的平均交并比,平均像素准确率为90.3%,处理速度达到68.56帧/s,网络结构大小仅为4.88MB。该模型具有较高分割识别精度和较好实时性,能满足葡萄采摘机器人对视觉识别系统的要求,为葡萄的智能化采摘提供了理论基础。  相似文献   

15.
基于卷积神经网络提取多尺度分层特征识别玉米杂草   总被引:13,自引:10,他引:3  
为提高作物与杂草识别的准确率、稳定性和实时性,该文以幼苗期玉米及杂草为研究对象,提出了基于卷积神经网络提取多尺度分层特征的玉米杂草识别方法。首先建立卷积神经网络模型,以从图像的高斯金字塔中提取多尺度分层特征作为识别依据,再与多层感知器相连接实现图像中各像素的识别;为了避免目标交叠所带来的问题,对图像进行超像素分割,通过计算每个超像素内部的平均像素类别分布确定该超像素块的类别,再将相同类别的相邻超像素合并,最终实现图像中各目标的识别。试验结果表明:该方法的平均目标识别准确率达98.92%,标准差为0.55%,识别单幅图像的平均耗时为1.68 s,采用GPU硬件加速后识别单幅图像的平均耗时缩短为0.72 s。该方法实现了精确、稳定和高效的玉米与杂草识别,研究可为精确除草的发展提供参考。  相似文献   

16.
【目的】为实现水稻氮素营养状况的快速、准确诊断,提出了基于集成卷积神经网络的水稻氮素营养诊断模型,为建立高性能的氮素营养诊断模型提供思路和方法。【方法】水稻田间试验以超级杂交水稻‘两优培九’为材料,设置4个施氮水平(0、210、300、390 kg/hm2)。扫描获取水稻幼穗分化期顶部3片完全展开叶的叶片图像,将图像裁剪至只包含叶尖片段的图像,进行水稻叶片图像数据采集。分别以单一卷积神经网络模型DenseNet121、ResNet50、InceptionResNet V2为基学习器,多层感知机(MLP)为元学习器,集成卷积神经网络模型,比较了集成模型与单一卷积神经网络模型以及不同基学习器组成的集成模型的氮素营养诊断结果。【结果】4个单一模型中,DenseNet121的氮素诊断准确率最高,为96.41%。二元集成模型和三元集成模型的准确率均高于任意一个单一模型的准确率,由3个基学习器组成的集成模型的准确率最高,达到98.10%,相比准确率最高的单一模型准确率提高了1.69个百分点。【结论】采用DenseNet、ResNet50、InceptionResNet V2集...  相似文献   

17.
为了在田间开放环境中有效分割叶片损伤区域,该文结合Canny算子良好的边缘提取能力和叶片局部颜色变化相对较小的特征,提出基于块标记的叶片损伤区域分割方法,用于评价叶片损伤程度。使用Android系统手机在晴天大田开放环境中采集木耳菜、西红柿、黄瓜、茄子、桃、彩椒和蛾眉豆7种常见农作物叶片图像,在阴天采集丝瓜、葫芦、甜瓜、茄子和黄瓜5种叶片图像,然后进行分割。该分割算法在晴天和阴天总体的平均正确分类率为97.5%,平均错误分类率为0.3%,并且有较好的目标一致性和边缘清晰度。应用系统对叶片损伤程度的评价结果与手工分割比较,在晴天和阴天采集图像上的平均误差分别为2.340%和1.475%,可较好地应用于晴天和阴天环境。该方法可探索应用于田间植物叶片损伤程度评价。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号