首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
针对小麦茎秆截面显微图像分割过程的复杂性,融合ResNet50和Unet网络构建维管束和背景区域的语义分割模型Res-Unet,搭建对小麦茎秆截面、髓腔、厚壁和背景的语义分割模型Mobile-Unet,可实现对小麦茎秆截面尺寸、髓腔尺寸和维管束面积等微观结构参数的检测。针对小麦样本数据集,通过深度学习中迁移学习的共享参数方式,将训练好的ResNet50网络权重应用到茎秆截面切片图像的网络模型上。结果表明,与同类方法相比,相关参数在精度上均有较大提升,全部参数的识别率超过97%,最高可达99.91%,平均每幅图像检测只需21.6s,与已有图像处理方法(110s)相比,处理速度提升了80.36%。模型评估的准确率、召回率、F1值和平均交并比均达到90%。本文方法可用于小麦茎秆微观结构的高通量观察和参数测定,为作物抗倒伏研究奠定了技术基础。  相似文献   

2.
针对苹果叶部病害由于数据集类间样本不均衡和拍摄角度、光照变化等实际成像与环境因素造成的精度低和泛化能力差的问题,本文提出了一种新型的非对称混洗卷积神经网络ASNet。首先,通过在ResNeXt骨干网络中添加改进的scSE注意力机制模块增强网络提取的特征;其次,针对多数叶片病害特征分布相对分散的问题,使用非对称混洗卷积模块代替原始的残差模块来扩大卷积核的感受野和增强特征提取能力,从而提升模型的分割精度和泛化能力;最后,在非对称混洗卷积模块中使用通道压缩和通道混洗的方式弥补了分组卷积造成的通道间关联性不足的缺陷,降低了由于叶部病害类间不均衡导致的传统网络模型精度偏低的问题。在COCO数据集评价指标下,实验结果表明,相比于骨干网络为ResNeXt-50的原始Mask R-CNN模型,本文模型的平均分割精度达到96.8%,提升了5.2个百分点,模型权重文件减小为321MB,减小了170MB。对实地采集和AI Challanger农作物病害分割挑战赛的240幅苹果叶片图像进行测试,结果表明,本文模型ASNet对苹果黑腐病、锈病与黑星病3种病害和健康叶片的平均分割精度达到94.7%。  相似文献   

3.
针对人工测量、统计作物茎秆显微切片图像中维管束数目、面积等关键参数主观性强、费时费力、效率低的问题,提出一种基于图像处理的水稻茎秆截面参数自动检测方法。首先构建了一个基于改进Mask R-CNN网络的水稻茎秆切片图像分割模型。网络以MobilenetV2和残差特征增强及自适应空间融合的特征金字塔网络为特征提取网络,同时引入PointRend增强模块,并将网络回归损失函数优化为IoU函数,最优模型的F1值为91.21%,平均精确率为94.37%,召回率为88.25%,平均交并比为90.80%,单幅图像平均检测耗时0.50 s,实现了水稻茎秆切片图像中大、小维管束区域的定位、检测和分割;通过边缘检测、形态学处理及轮廓提取,实现茎秆截面轮廓的分割提取。本文方法可实现对水稻茎秆截面面积、截面直径,大、小维管束面积,大、小维管束数量等6个参数的自动检测,检测平均相对误差不超过4.6%,可用于水稻茎秆微观结构的高通量观测。  相似文献   

4.
对图像中的鱼类目标进行分割是提取鱼类生物学信息的关键步骤。针对现有方法对养殖条件下的鱼类图像分割精度较低的问题,提出了基于目标检测及边缘支持的鱼类图像分割方法。首先,设计了基于目标检测的完整轮廓提取方法,将具有完整轮廓的鱼类目标从图像中提取出来作为分割阶段的输入,使得整幅图像的分割问题转化为局部区域内的分割问题;然后,搭建Canny边缘支持的深度学习分割网络,对区域内的鱼类实现较高精度图像分割。实验结果表明,本文方法在以VGG-16、ResNet-50和ResNet-101作为主干网络的模型上的分割精度为81.75%、83.73%和85.66%。其中,以ResNet-101作为主干网络的模型与Mask R-CNN、U-Net、DeepLabv3相比,分割精度分别高14.24、11.36、9.45个百分点。本文方法可以为鱼类生物学信息的自动提取提供技术参考。  相似文献   

5.
在智慧养殖研究中,基于深度学习的猪只图像实例分割方法,是猪只个体识别、体重估测、行为识别等下游任务的关键。为解决模型训练需要大量的逐像素标注图像,以及大量的人力和时间成本的问题,采用弱监督猪只分割策略,制作弱监督数据集,提出一种新的特征提取骨干网络RdsiNet:首先在ResNet-50残差模块基础上引入第2代可变形卷积,扩大网络感受野;其次,使用空间注意力机制,强化网络对重要特征的权重值;最后引入involution算子,借助其空间特异性和通道共享性,实现加强深层空间信息、将特征映射同语义信息连接的功能。通过消融实验和对比实验证明了RdsiNet对于弱监督数据集的有效性,实验结果表明其在Mask R-CNN模型下分割的mAPSemg达到88.6%,高于ResNet-50、GCNet等一系列骨干网络;在BoxInst模型下mAPSemg达到95.2%,同样高于ResNet-50骨干网络的76.7%。而在分割图像对比中,使用RdsiNet骨干网络的分割模型同样具有更好的分割效果:在图像中猪只堆叠情况下,能更好地分辨猪只个体;使用BoxInst训...  相似文献   

6.
基于双金字塔网络的RGB-D群猪图像分割方法   总被引:3,自引:0,他引:3  
为实现群养猪的视觉追踪和行为监测,针对猪舍中仔猪因拥挤堆叠等习性而导致的目标个体粘连、图像分割困难问题,提出基于双金字塔网络的RGB-D群猪图像分割方法。该方法基于实例分割Mask R-CNN框架,在特征提取网络(Res Net101)基础上改进成双金字塔特征提取网络。RGB图像和Depth图像分别提取特征后进行融合,输入区域生成网络得到预选锚(ROI)和共享特征输入Head网络,通过类别、回归和掩模3个分支,输出检测目标的位置和分类结果,实现猪舍场景下群养仔猪粘连区域的有效个体分割。网络模型训练采用2 000组图像样本,按照4∶1比例随机划分训练集和验证集。试验结果表明,双金字塔网络(Feature pyramid networks,FPN)能有效解决颜色相近、个体相似的群猪粘连问题,实现单个仔猪区域的完整分割,分割准确率达89.25%,训练GPU占有率为77.57%,与Mask R-CNN和Pig Net网络分割结果相比,分割准确率和分割速度均有较大提高。双金字塔网络模型对于多种行为状态、不同粘连程度的群猪图像中个体分割都取得了良好效果,模型泛化性和鲁棒性较好,为群养猪的个体自动追踪提供了新的途径。  相似文献   

7.
食品包装上的标签文本含有生产日期、营养成分、生产厂家等食品相关信息,这些不仅为消费者购买食品提供了重要依据,也有助于食品监督抽检机构发现潜在的食品安全问题。食品标签文本检测是食品标签自动识别的前提,有助于降低人工录入成本、提高数据处理效率。基于食品包装图像构建数据集,提出了一种基于语义分割的距离场模型,以检测食品标签。该模型包含像素分类和距离场回归两类任务,其中像素分类任务分割处理图像中的文本区域,距离场回归任务预测文本区域内的像素点到该区域边界的归一化距离。为提升模型的检测性能,在回归预测模块中通过增加注意力模块优化模型结构,并针对距离场回归任务损失值过小、影响模型训练优化问题对其损失函数进行了改进。消融实验结果表明,增加注意力模块和损失函数的改进使得模型的准确率分别提高了4.39、3.80个百分点,有效提高了检测准确率。食品包装图像数据集的对比实验表明,采用本文模型检测食品标签文本具有较好的性能,其召回率、准确率分别达到87.61%、76.50%。  相似文献   

8.
马铃薯缺陷透射和反射机器视觉检测方法分析   总被引:2,自引:0,他引:2  
针对反射机器视觉技术若同时检测马铃薯内外部缺陷存在检测精度不高的问题,提出一种基于透射机器视觉技术的马铃薯内外部缺陷无损检测方法。通过对获取的马铃薯透射和反射图像预处理方法的比较研究,确定上山法结合区域生长法为马铃薯透射和反射图像特征的最优分割方法;采用偏最小二乘-支持向量机分别建立了透射和反射图像的马铃薯缺陷识别模型并进行了比较。在对马铃薯内部缺陷进行检测时,透射和反射图像所建模型的判别正确率分别为96.30%、59.26%;在对马铃薯外部缺陷进行检测时,透射和反射图像所建模型的判别正确率分别为94.20%、89.86%;在对马铃薯内外部缺陷进行同时检测时,透射和反射图像所建模型的判别正确率分别为95.83%、81.25%。研究结果表明,无论是对马铃薯内部或外部缺陷单独进行检测,还是对内外部缺陷同时进行检测,透射方法均比反射方法精度更高。  相似文献   

9.
为了满足田间作物长势快速检测与指导变量管理的需求,以玉米为例设计了基于多光谱成像的田间作物植株叶绿素检测系统,包括可见光(RGB)和近红外(Near-infrared, NIR)图像采集模块、主控处理器模块、模型加速模块、显示及电源模块,用于实现玉米植株智能识别与叶绿素指标一体化检测。首先,采集玉米苗期和拔节期冠层图像数据集,比较了植株冠层实例分割与株心目标检测两种深度学习模型,构建了基于MobileDet+SSDLite(Single shot multibox detector lite)轻量化网络的玉米植株定位检测模型,实现玉米植株识别。其次,提取被识别的植株株心RGB-NIR图像,开展RGB和NIR图像匹配与分割,提取R、G、B和NIR灰度值计算植被指数,使用SPXY算法(Sample set portioning based on joint X-Y distances)和连续投影算法(Successive projections algorithm, SPA)分别对数据集进行样本划分及特征变量筛选,选择高斯过程回归(Gaussian process regression, ...  相似文献   

10.
为了实现火龙果采收自动化作业,提出一种基于改进U-Net的火龙果图像分割和姿态估计方法。首先,在U-Net模型的跳跃连接(编码器与解码器部分特征图进行的连接操作)中引入通道和空间注意力机制模块(Concurrent spatial and channel squeeze and channel excitation, SCSE),同时将SCSE模块集成到残差模块(Double residual block, DRB)中,在增强网络提取有效特征能力的同时提高网络的收敛速度,得到一种基于注意力残差U-Net的火龙果图像分割网络。通过该网络分割出果实及其附生枝条的掩膜图像,利用图像处理技术和相机成像模型拟合出果实及其附生枝条的轮廓、果实质心、果实最小外接矩形框和三维边界框,进而结合果实及其附生枝条的位置关系进行火龙果三维姿态估计,并在火龙果种植园中获得一个测试集,以评价该算法的性能,最后在自然果园环境下进行实地采摘试验。试验结果表明,火龙果果实图像分割平均交并比(mIoU)和平均像素准确率(mPA)分别达到86.69%和93.89%,三维姿态估计平均误差为8.8°,火龙果采摘机器人在果园环境...  相似文献   

11.
基于深度语义分割网络的荔枝花叶分割与识别   总被引:2,自引:0,他引:2  
针对使用目标检测、实例分割方法无法对复杂自然环境下稠密聚集的荔枝花进行识别的问题,提出一种基于深度语义分割网络识别荔枝花、叶像素并实现分割的方法。首先在花期季节于实验果园拍摄荔枝花图像;然后制作标签,并进行数据增强;构建深度为34层的ResNet主干网络,在此基础上引入稠密特征传递方法和注意力模块,提取荔枝花、叶片的特征;最后通过全卷积网络层对荔枝花、叶片进行分割。结果表明,模型的平均交并比(mIoU)为0.734,像素识别准确率达到87%。本文提出的深度语义分割网络能够较好地解决荔枝花的识别与分割问题,在复杂野外环境中具有较强的鲁棒性和较高的识别准确率,可为智能疏花提供视觉支持。  相似文献   

12.
番茄图像中多类别目标的准确识别是实现自动化采摘的技术前提,针对现有网络分割精度低、模型参数多的问题,提出一种基于改进DeepLabv3+的番茄图像多类别分割方法。该方法使用幻象网络(GhostNet)和坐标注意力模块(Coordinate attention, CA)构建CA-GhostNet作为DeepLabv3+的主干特征提取网络,减少网络的参数量并提高模型的分割精度,并设计了一种多分支解码结构,用于提高模型对小目标类别的分割能力。在此基础上,基于单、双目小样本数据集使用合成数据集的权值参数进行迁移训练,对果实、主干、侧枝、吊线等8个语义类别进行分割。结果表明,改进的DeepLabv3+模型在单目数据集上的平均交并比(MIoU)和平均像素准确率(MPA)分别为68.64%、78.59%,在双目数据集上的MIoU和MPA分别达到73.00%、80.59%。此外,所提模型内存占用量仅为18.5 MB,单幅图像推理时间为55 ms,与基线模型相比,在单、双目数据集上的MIoU分别提升6.40、6.98个百分点,与HRNet、UNet、PSPNet相比,内存占用量压缩82%、79%、88%...  相似文献   

13.
小麦赤霉病是导致小麦大幅度减产的病害之一,对其开展自动识别研究具有重大意义。然而,传统方法一般通过阈值、色彩直方图等在农田复杂背景下开展小麦赤霉病的分割识别研究,其分割识别精确度较差并且泛化能力也不尽如意。为了在节省大量人力成本的同时对小麦赤霉病病斑进行快速、准确地分割从而辅助农业工作者对小麦患病的严重程度进行确认并开展后续的针对性研究,提出一种融合卷积神经网络和注意力机制的小麦赤霉病语义分割网络模型UNetA。该模型依据小麦赤霉病数据集的特点,使用融合了位置自注意力和空间注意力的注意力机制模块,并将注意力机制模块融入改进了的UNet结构中,再利用加权交叉熵损失函数来衡量预测值与实际值的差距同时缓解样本不均衡问题。试验结果表明,与现有的经典网络模型相比,UNetA模型的分割精度和实时性明显占据优势,其MIoU值达到83.90%,分割单张图像所用平均时间仅为0.588 0 s。  相似文献   

14.
为探索基于计算机视觉的马铃薯表面缺陷检测新方法,该研究提出能将马铃薯表面疑似缺陷一次性分离出来的快速灰度截留分割方法和用于缺陷识别的十色模型。选择面积比率和十色比率作为缺陷判别特征,对分割出来的深色部位采用阈值法进行缺陷识别。采用基于快速G与亮度截留分割的2种方法对发芽进行识别。通过对326个马铃薯样本的652幅正反面图像进行试验,基于十色模型的缺陷识别方法对分割出来的深色区域的正确识别率为93.6%,基于快速G与亮度截留分割2种方法结合对有芽体图像的正确识别率为97.5%,马铃薯表面缺陷正确检测率为95  相似文献   

15.
为了实现对自然环境下树上柑橘的识别和检测,解决柑橘图像数据采集不便、图像质量差、数量少的问题,为柑橘的机械采摘工作提供一种视觉方案,本文提出了一种联合SAM(Segment Anything Model)与VGG16模型的检测方法。SAM具有良好的泛化能力,在图像分割效果上也达到了柑橘任务的应用要求。图像经过SAM分割后输入到VGG16网络模型中进行分类,而后将分类结果连同位置信息返回到原图上显示出来,实现柑橘目标检测。本文方法旨在进一步解决自然环境下树上柑橘任务需要大量数据集、模型训练时间长、目标分割困难、目标错检等问题。实验结果表明,该方法在模型不经大量训练的情况下能够准确识别在自然环境下的树上柑橘及柑橘小目标,有效节省了数据集制作和模型训练的时间。  相似文献   

16.
为实现射线图像复杂大背景下微小目标检测,研究强噪声、大灰度梯度下微小缺陷的分割方法。提出面向射线图像的视觉显著度模型,模拟人眼视觉注意机制,采用线扫描及自适应中央-周边差策略,以视觉显著度为尺度,通过特征图计算与融合、显著图获取等算法,从射线图像复杂背景中分割出注意区域;进一步通过显著度竞争标记排序各注意区域,并根据显著度阈值识别可疑缺陷区域,由此减少图像数据处理量,排除射线图像其他部分的干扰。提出以显著图上可疑区域的注意焦点为种子点,基于各点显著度的区域生长分割方法,实现了可疑区域图像中微小缺陷目标的准确提取。在复杂大背景X射线图像的实验中,准确提取出含有未知缺陷目标的区域,对微小目标的分割取得了较好效果,准确率达到96.1%,比传统方法高8%以上,证明了所提方法的有效性和适应性。  相似文献   

17.
针对前处理工序造成的羊肉智能精细分割目标肌肉区图像识别准确度低的问题,以羊后腿自动去骨分割工序为研究对象,提出一种基于R2U-Net和紧凑空洞卷积的羊后腿分割目标肌肉区识别方法。对传统的U-Net语义分割网络进行改进,以U-Net为骨架网络,采用残差循环卷积块替换原始U-Net的特征编码模块和解码模块中的卷积块以避免U-Net的梯度消失,在特征编码模块和特征解码模块之间增加一个紧凑的四分支空洞卷积模块对语义特征进行多尺度编码,实现缝匠肌图像分割模型的构建。一方面,针对缝匠肌这一核心目标肌肉区,采集羊后腿图像构建数据集训练与测试本文模型,以验证该方法的准确性与实时性;另一方面,通过旋量法标定夹爪坐标系、相机点云坐标系、机器人坐标系的齐次变换矩阵以计算分割路径,并采用主动柔顺的力/位混合控制方法操纵分割机器人进行目标切削运动,验证基于本文方法得到的目标图像开展目标肌肉分割的可行性。相关试验结果表明:当交并比为0.8588时,本文方法平均精确度为0.9820,优于R2U-Net的(0.8324,0.9775);单样本检测时间平均为82ms,说明本文方法可快速、准确分割出缝匠肌图像,满足机器人自主分割系统的实时性要求,优于U-Net、R2U-Net、AttU-Net算法。最后,在本文方法得到的缝匠肌图像基础上开展机器人实机分割试验,机器人对5条羊后腿的平均切削时间为7.9s,平均偏移距离为4.36mm,最大偏移距离不大于5.9mm,满足羊后腿去骨分割的精度要求。  相似文献   

18.
基于深度学习特征的铸件缺陷射线图像动态检测方法   总被引:1,自引:0,他引:1  
针对X射线检测中铸件微弱缺陷误检率和漏检率高的问题,提出一种基于选择性注意机制和深度学习特征匹配的缺陷动态跟踪检测方法。基于射线图像序列,采取帧内注意区域检测消除漏检、帧间深度学习特征匹配跟踪排除误检的策略。在帧内检测阶段,提出通过中央-周边梯度搜索方法模拟生物视觉的中央-周边差运算,根据梯度阈值直接检测各可疑缺陷区域,无需分割出缺陷本身。在帧间跟踪阶段,借鉴人类大脑视觉感知系统的深度学习层次结构,建立基于卷积神经的深度学习网络,可疑缺陷区域灰度信号直接作为输入,自动抽取表征可疑缺陷区域的本质特征信息,组成深度学习特征矢量。定义基于欧氏距离的特征矢量相似度,通过连续图像中可疑缺陷区域的相似度匹配实现缺陷跟踪,以消除噪声等伪缺陷。实验结果表明,基于深度学习特征匹配方法的铸件缺陷图像动态检测,误检率和漏检率均低于3%,缺陷检测准确率超过97%,证明了所提方法的有效性。  相似文献   

19.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

20.
针对DeepLabV3+语义分割模型计算复杂度高、内存消耗大、难以在计算力有限的移动平台上部署等问题,提出一种改进的轻量化DeepLabV3+深度学习语义分割算法,用于实现无人机荞麦苗期图像的分割与识别。该算法采用RepVGG(Re-parameterization visual geometry group)与MobileViT(Mobile vision transformer)模块融合的方式建立主干网络实现特征提取;同时,在RepVGG网络结构中引入SENet(Squeeze-and-excitation networks)注意力机制,通过利用通道间的相关性,捕获更多的全局语义信息,保证荞麦分割的性能。实验结果表明,与FCN(Fully convolutional networks)、PSPNet(Pyramid scene parsing network)、DenseASPP(Dense atrous spatial pyramid pooling)、DeepLabV3、DeepLabV3+模型相比,本文提出的改进算法在较大程度上降低了模型参数规模,更适合在移动端部署,自建荞麦苗期分割数据集上的语义分割平均像素准确率(Mean pixel accuracy,mPA)和平均交并比(Mean intersection over union,mIoU)分别为97.02%和91.45%,总体参数量、浮点运算次数(Floating-point operations,FLOPs)和推理速度分别为9.01×106、8.215×1010、37.83f/s,综合表现最优。在全尺寸图像分割中,训练模型对不同飞行高度的荞麦苗期分割的mPA和mIoU均能满足要求,也具有较好的分割能力和推理速度,该算法可为后期荞麦补种、施肥养护和长势监测等提供重要技术支持,进而促进小杂粮产业智能化发展。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号