首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 281 毫秒
1.
针对目前植物解剖表型的测量与分析过程自动化低,难以应对复杂解剖表型的提取和识别的问题,以柑橘主叶脉为研究对象,提出了一种基于掩膜区域卷积神经网络(Mask region convolutional neural network, Mask R-CNN)的主叶脉显微图像实例分割模型,以残差网络ResNet50和特征金字塔(Feature pyramid network, FPN)为主干特征提取网络,在掩膜(Mask)分支上添加一个新的感兴趣区域对齐层(Region of interest Align, RoI-Align),提升Mask分支的分割精度。结果表明,该网络架构能够精准地对柑橘主叶脉横切面中的髓部、木质部、韧皮部和皮层细胞进行识别分割。Mask R-CNN模型对髓部、木质部、韧皮部和皮层细胞的分割平均精确率(交并比(IoU)为0.50)分别为98.9%、89.8%、95.7%和97.2%,对4个组织区域的分割平均精确率均值(IoU为0.50)为95.4%。与未在Mask分支添加RoI-Align的Mask R-CNN相比,精度提升1.6个百分点。研究结果表明,Mask R-CN...  相似文献   

2.
基于深度语义分割网络的荔枝花叶分割与识别   总被引:2,自引:0,他引:2  
针对使用目标检测、实例分割方法无法对复杂自然环境下稠密聚集的荔枝花进行识别的问题,提出一种基于深度语义分割网络识别荔枝花、叶像素并实现分割的方法。首先在花期季节于实验果园拍摄荔枝花图像;然后制作标签,并进行数据增强;构建深度为34层的ResNet主干网络,在此基础上引入稠密特征传递方法和注意力模块,提取荔枝花、叶片的特征;最后通过全卷积网络层对荔枝花、叶片进行分割。结果表明,模型的平均交并比(mIoU)为0.734,像素识别准确率达到87%。本文提出的深度语义分割网络能够较好地解决荔枝花的识别与分割问题,在复杂野外环境中具有较强的鲁棒性和较高的识别准确率,可为智能疏花提供视觉支持。  相似文献   

3.
在智慧养殖研究中,基于深度学习的猪只图像实例分割方法,是猪只个体识别、体重估测、行为识别等下游任务的关键。为解决模型训练需要大量的逐像素标注图像,以及大量的人力和时间成本的问题,采用弱监督猪只分割策略,制作弱监督数据集,提出一种新的特征提取骨干网络RdsiNet:首先在ResNet-50残差模块基础上引入第2代可变形卷积,扩大网络感受野;其次,使用空间注意力机制,强化网络对重要特征的权重值;最后引入involution算子,借助其空间特异性和通道共享性,实现加强深层空间信息、将特征映射同语义信息连接的功能。通过消融实验和对比实验证明了RdsiNet对于弱监督数据集的有效性,实验结果表明其在Mask R-CNN模型下分割的mAPSemg达到88.6%,高于ResNet-50、GCNet等一系列骨干网络;在BoxInst模型下mAPSemg达到95.2%,同样高于ResNet-50骨干网络的76.7%。而在分割图像对比中,使用RdsiNet骨干网络的分割模型同样具有更好的分割效果:在图像中猪只堆叠情况下,能更好地分辨猪只个体;使用BoxInst训...  相似文献   

4.
基于注意力机制和可变形卷积的鸡只图像实例分割提取   总被引:2,自引:0,他引:2  
为提高鸡只个体轮廓分割提取的精度和准确度,实现基于机器视觉技术的鸡只行为、健康、福利状态监测等精准畜牧业管理,保证相关监测技术及决策的可靠性,针对叠层笼养环境下肉鸡图像的实例分割和轮廓提取问题,提出一种优化的基于Mask R-CNN框架的实例分割方法,构建了一种鸡只图像分割和轮廓提取网络,对鸡群图像进行分割,从而实现鸡只个体轮廓的提取。该网络以注意力机制、可变形卷积的41层深度残差网络(ResNet)和特征金字塔网络(Feature pyramid networks, FPN)相融合为主干网络,提取图像特征,并经区域生成网络(Region proposal networks, RPN)提取感兴趣区域(ROI),最后通过头部网络完成鸡只目标的分类、分割和边框回归。鸡只图像分割试验表明,与Mask R-CNN网络相比,优化后网络模型精确率和精度均值分别从78.23%、84.48%提高到88.60%、90.37%,模型召回率为77.48%,可以实现鸡只轮廓的像素级分割。本研究可为鸡只福利状态和鸡只健康状况的实时监测提供技术支撑。  相似文献   

5.
基于Mask R-CNN的猪只爬跨行为识别   总被引:1,自引:0,他引:1  
针对目前猪只爬跨行为自动化检测程度较低的问题,提出了一种基于Mask R-CNN的猪只爬跨行为识别算法。首先获取猪只俯视图像,利用Labelme制作数据集标签,引入迁移学习方法训练Res Net-FPN网络,获取猪只分割结果,并提取每个样本中的mask像素面积。提取每个样本中的最小mask像素面积作为爬跨行为识别的经验样本集,确定爬跨行为界定阈值。利用测试集分别测试猪只分割网络模型及爬跨行为识别算法,结果表明,猪只分割网络模型的分割准确率为94%,爬跨行为识别算法准确率为94. 5%。本算法能够自动有效地检测猪只爬跨行为,可为牲畜养殖自动化提供支持。  相似文献   

6.
为实现对多种番茄叶部病害的精确检测,提出了一种基于改进SOLO v2的番茄叶部病害实例分割方法。该方法以SOLO v2模型为主体框架,将ResNet-101作为骨干网络融合特征金字塔网络(Feature pyramid networks,FPN),引入可变形卷积对卷积结构进行优化,并将损失因子δ融入掩膜损失函数中,在语义分支与掩膜分支上对实例进行检测与分割。通过对模型的改进,实现了对形状复杂多变的番茄叶片的精确检测与分割,并提升了模型的泛化能力与鲁棒性。基于Plant Village数据集的试验结果表明,ResNet-101比ResNet-50在SOLO v2上的性能表现更好。在相同骨干网络下,SOLO v2模型的单幅图像处理时间比Mask R-CNN减少了72.0%,平均精度均值(Mean average precision,mAP)提升了3.2个百分点,改进后的模型在训练过程中收敛效果有所提升,受叶片形状多变的影响较小,最终的平均精度均值达到了42.3%,单幅图像处理时间仅需0.083s,在提升检测精度的同时保证了运行的实时性。该研究较好地解决了番茄病叶识别与分割难的问题,为农业自动化生产中番茄疾病情况与症状分析提供了参考。  相似文献   

7.
针对在复杂果园背景中难以识别分割单株果树树冠的问题,研究了基于Mask R-CNN 神经网络模型实现单株柑橘树冠识别与分割的方法。通过相机获取柑橘园图像数据,利用Mask R-CNN神经网络实现单株柑橘树冠的识别与分割,根据测试集的预测结果评估模型的性能和可适应性,并分析模型的影响因素。结果表明:参与建模的果园单株树冠识别分割准确率为97%,识别时间为0.26s,基本上可满足果园精准作业过程中的树冠识别要求;未参与建模果园的单株树冠识别分割准确率为89%,说明模型对不同品种、不同环境的果园具有一定的适应性;与SegNet模型相比,本文模型准确率、精确率和召回率均约高5个百分点,说明在非目标树冠较多的复杂果园图像中具有较好的识别分割效果。本研究可为对靶喷药、病虫害防护、长势识别与预估等果园精准作业提供重要依据。  相似文献   

8.
数据集对基于深度学习的作物病害识别有效性影响   总被引:1,自引:0,他引:1  
基于深度学习的作物病害自动识别已成为农业信息化领域新的研究热点,为探究数据集的大小和质量对基于深度学习的作物病害识别有效性的影响,研究不同数据集训练得到的模型识别效果并进行了分析。以338张玉米病害数据集为例,对其进行数据增强、移除背景和细分割划分等处理,设计5个AlexNet框架的CNN网络模型并利用不同类型的数据集进行测试,使用十倍交叉法验证识别结果。试验结果表明:使用不同数量和等级的数据训练后的模型识别准确率分别为56.80%、78.30%、80.50%、89.30%和81.00%。在获得每个网络的最终精度后,挑选出识别错误的图像进行分析,结合前人的研究结果,得出影响深度神经网络用于作物病害识别有效性的9个主要因素。数据集对基于深度学习的作物病害识别有效性的影响因素主要分为带注释的数据集大小、叶片症状代表性、协变量转移、图像背景情况、图像数据获取过程、症状分割、特征多变性、并发性病害以及症状的相似性等这9类,该试验能够为深度学习技术田间病害识别的实际应用中提供依据和指导。  相似文献   

9.
基于YUV颜色模型的番茄收获机器人图像分割方法   总被引:2,自引:0,他引:2  
在研究番茄收获机器人对目标图像分割识别时,经常由于采集的图像受光照影响以及分割识别算法的计算复杂性而影响到识别的准确性和实时性.通过比较RGB、HSI、YUV等颜色模型的特点,从理论上分析了YUV颜色模型应用于收获机器人视觉系统的可行性,提出了一种基于YUV颜色模型的成熟番茄分割方法.同时综合实验及经验确定了成熟的红色番茄在RGB、HSI、YUV颜色模型中阈值范围,采用直接确定色差阈值的双阈值分割算法识别成熟番茄,并对3种颜色模型在不同的光照条件下的分割识别效果进行实验对比.实验结果证实,将基于YUV颜色模型成熟番茄分割方法应用于番茄收获机器人视觉识别系统,能很好地解决其鲁棒性和实时性问题.  相似文献   

10.
为探索基于计算机视觉的马铃薯表面缺陷检测新方法,该研究提出能将马铃薯表面疑似缺陷一次性分离出来的快速灰度截留分割方法和用于缺陷识别的十色模型。选择面积比率和十色比率作为缺陷判别特征,对分割出来的深色部位采用阈值法进行缺陷识别。采用基于快速G与亮度截留分割的2种方法对发芽进行识别。通过对326个马铃薯样本的652幅正反面图像进行试验,基于十色模型的缺陷识别方法对分割出来的深色区域的正确识别率为93.6%,基于快速G与亮度截留分割2种方法结合对有芽体图像的正确识别率为97.5%,马铃薯表面缺陷正确检测率为95  相似文献   

11.
基于多源图像融合的自然环境下番茄果实识别   总被引:1,自引:0,他引:1  
蔬果采摘机器人面对的自然场景复杂多变,为准确识别和分割目标果实,实现高成功率采收,提出基于多源图像融合的识别方法。首先,针对在不同自然场景下单图像通道信息不充分问题,提出融合RGB图像、深度图像和红外图像的多源信息融合方法,实现了机器人能够适应自然环境中不同光线条件的番茄果实。其次,针对传统机器学习训练样本标注低效问题,提出聚类方法对样本进行辅助快速标注,完成模型训练;最终,建立扩展Mask R-CNN深度学习算法模型,进行采摘机器人在线果实识别。实验结果表明,扩展Mask R-CNN算法模型在测试集中的检测准确率为98.3%、交并比为0.916,可以满足番茄果实识别要求;在不同光线条件下,与Otsu阈值分割算法相比,扩展Mask R-CNN算法模型能够区分粘连果实,分割结果清晰完整,具有更强的抗干扰能力。  相似文献   

12.
提出一种基于阈值边缘提取算法和HSV颜色模型的二次分割叶片雾滴图像识别算法。通过模拟喷雾试验得到三种不同雾滴密度的叶片样本,保留叶片自身轮廓信息的同时分割叶面雾滴,计算叶面积与雾滴覆盖率关系。结果表明应用Otsu阈值边缘提取与HSV空间混合算法相对于传统的k-means聚类分割算法、动态阈值分割算法,更适用于叶面雾滴分布的识别与检测,三种覆盖密度叶片的分割准确率分别为:95.16%、94.23%、93.76%,平均准确率为94.38%;雾滴覆盖率检测相对误差分别为:2.82%、4.11%、7.59%,平均相对误差分别为4.84%。基于阈值边缘提取与HSV空间提取的混合算法可分割叶面雾滴图像并检测完整叶面上雾滴覆盖率,识别结果能够满足识别精度的要求。  相似文献   

13.
针对羊胴体后腿骨肉边界未知、尺寸多变和可见性约束限制造成的机器人自主分割精确度低与易受阻卡住的问题,提出一种羊胴体后腿自适应分割控制方法,并开展羊胴体后腿分割试验进行验证。该方法以接触状态感知为核心,有效提取接触类型特征、接触异常度特征和接触方向特征,通过构建深度时空神经网络识别接触类型,构建深度自编码网络估计接触异常度,采用主成分分析方法检测主要接触方向,实现接触状态多模态感知,机器人通过动态运动基元模仿学习人类操作技能,并结合接触状态感知信息实现关节运动的自适应调节。试验结果表明:深度时空网络模型在羊胴体后腿分割验证集上的识别准确率为98.44%;深度自编码网络模型能够较好地估计验证集样本的接触异常度,区分不同的接触状态。机器人基于自适应分割控制方法开展实际分割试验,与对照组相比,最大分割力下降幅度为29 N,最大力矩下降幅度为7 N·m,证明该方法的有效性;平均最大残留肉厚度为3.6 mm,平均分割残留率为4.9%,分割残留率与羊胴体质量呈现负相关,证明该方法具有良好的泛化性和准确性,并且整体分割效果较好,满足羊胴体后腿分割要求。  相似文献   

14.
针对闭集猪脸识别模型无法识别训练集中未曾出现的生猪个体的问题,本文设计了一种融合注意力机制的开集猪脸识别方法,可实现开集猪脸图像识别,识别模型从未处理过的生猪个体。首先基于全局注意力机制、倒置残差结构和深度可分离卷积构建了轻量级的特征提取模块(GCDSC);然后基于高效注意力机制、Ghost卷积和残差网络设计C3ECAGhost模块,提取猪脸图像高层语义特征;最后基于MobileFaceNet网络,融合GCDSC模块、C3ECAGhost模块、SphereFace损失函数和欧氏距离度量方法,构建PigFaceNet模型,实现开集猪脸识别。实验结果表明,GCDSC模块可使模型猪脸识别的准确率提高1.05个百分点,C3ECAGhost模块可将模型准确率进一步提高0.56个百分点。PigFaceNet模型在开集猪脸识别验证中的准确率可达94.28%,比改进前提高1.61个百分点,模型占用存储空间仅为5.44 MB,在提高准确率的同时实现了模型轻量化,可为猪场智慧化养殖提供参考方案。  相似文献   

15.
基于改进PCNN的番茄植株夜间图像分割算法   总被引:1,自引:0,他引:1  
为实现番茄植株夜间图像分割,设计了一种基于最大类间方差法的改进脉冲耦合神经网络(PCNN)图像分割算法。该算法对传统PCNN模型中的链接输入项进行加权处理,在进行图像分割前,先基于最大类间方差(Otsu)算法获得阈值,再将该阈值赋值给改进PCNN模型中的链接输入项权值、突触链接系数β、链接权放大系数VE和阈值迭代衰减时间常数αE。对849幅番茄植株夜间图像进行试验,结果表明,图像分割正确率平均值为90. 43%,平均每幅图像分割时间为0. 994 4 s;输入链接项的加权处理可减少PCNN的迭代次数,提高算法的实时性;基于Otsu算法可实现改进PCNN模型的网络参数自适应设置。基于视觉效果、最大熵及分割正确率这3项评价指标的对比分析显示,改进PCNN模型的分割效果优于Otsu算法和传统PCNN模型,实时性优于传统PCNN模型。  相似文献   

16.
果园机器人视觉导航行间位姿估计与果树目标定位方法   总被引:3,自引:0,他引:3  
毕松  王宇豪 《农业机械学报》2021,52(8):16-26,39
针对单目视觉导航中位姿信息不完整和果树定位精度低的问题,提出基于实例分割神经网络的偏航角、横向偏移、果树位置计算方法。首先,基于Mask R-CNN模型识别并分割道路与树干;其次,寻找道路掩码凸包并进行霍夫变换,由凸包中的边界方程计算消失点坐标;最后,根据建立的位姿-道路成像几何模型,计算偏航角、横向偏移与果树相对位置。实验结果表明:改进Mask R-CNN模型的边框回归平均精确度为0.564,分割平均精确度为0.559,平均推理时间为110 ms。基于本文方法的偏航角估计误差为2.91%、横向偏移误差为4.82%,果树横向定位误差为3.80%,纵向误差为2.65%。该方法能在不同位姿稳定地提取道路与果树掩码、计算消失点坐标与边界方程,较准确地估计偏航角、横向位移和果树相对位置,为果园环境下的视觉自主导航提供有效参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号