首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 390 毫秒
1.
基于通道特征金字塔的田间葡萄实时语义分割方法   总被引:1,自引:1,他引:0  
复杂环境下葡萄的快速检测识别是智能采摘的关键步骤,为解决目前葡萄识别精度低和实时性差的问题,该研究提出一种轻量级葡萄实时语义分割模型(Grape Real-time Semantic Segmentation Model,GRSM)。首先,利用通道特征金字塔(Channel-wise Feature Pyramid,CFP)模块进行特征提取,该模块通过1?3和3?1空洞卷积的跳跃连接,在减少模型参数量的同时提取葡萄图像的多尺度特征和上下文信息;然后,采用池化卷积融合结构完成下采样,增加可训练参数以减少信息损失;最后,利用跳跃连接融合多种特征恢复图像细节。试验结果表明:该研究所提出的模型在田间葡萄测试集上达到了78.8%的平均交并比,平均像素准确率为90.3%,处理速度达到68.56帧/s,网络结构大小仅为4.88MB。该模型具有较高分割识别精度和较好实时性,能满足葡萄采摘机器人对视觉识别系统的要求,为葡萄的智能化采摘提供了理论基础。  相似文献   

2.
针对实际复杂田间环境下杂草与作物识别精度低和实时性差的问题,为减少弱光环境对分割识别效果的影响,实现甜菜与杂草的实时精确分割识别,该文首先将可见光图像进行对比度增强,再将近红外与可见光图像融合为4通道图像;将深度可分离卷积以及残差块构成分割识别模型的卷积层,减少模型参数量及计算量,构建编码与解码结构并融合底层特征,细化分割边界。以分割识别精度、参数量以及运行效率为评价指标,通过设置不同宽度系数以及输入图像分辨率选出最优模型。试验结果表明:本文模型的平均交并比达到87.58%,平均像素准确率为99.19%,帧频可达42.064帧/s,参数量仅为525 763,具有较高分割识别精度和较好实时性。该方法有效实现了甜菜与杂草的精确实时识别,可为后续机器人精确除草提供理论参考。  相似文献   

3.
基于卷积神经网络提取多尺度分层特征识别玉米杂草   总被引:13,自引:10,他引:3  
为提高作物与杂草识别的准确率、稳定性和实时性,该文以幼苗期玉米及杂草为研究对象,提出了基于卷积神经网络提取多尺度分层特征的玉米杂草识别方法。首先建立卷积神经网络模型,以从图像的高斯金字塔中提取多尺度分层特征作为识别依据,再与多层感知器相连接实现图像中各像素的识别;为了避免目标交叠所带来的问题,对图像进行超像素分割,通过计算每个超像素内部的平均像素类别分布确定该超像素块的类别,再将相同类别的相邻超像素合并,最终实现图像中各目标的识别。试验结果表明:该方法的平均目标识别准确率达98.92%,标准差为0.55%,识别单幅图像的平均耗时为1.68 s,采用GPU硬件加速后识别单幅图像的平均耗时缩短为0.72 s。该方法实现了精确、稳定和高效的玉米与杂草识别,研究可为精确除草的发展提供参考。  相似文献   

4.
基于改进FCN-8s的灵武长枣图像分割方法   总被引:4,自引:4,他引:0  
针对不同成熟度灵武长枣图像中多尺度长枣目标的分割问题,该研究提出了一种基于改进FCN-8s的灵武长枣图像分割方法。首先,建立包含不同成熟度灵武长枣图像的数据集。其次,提出一个多尺度特征提取模块,该模块以3×3卷积为主分支,增加1×1卷积和5×5深度可分离卷积作为辅助分支,以提取灵武长枣图像中的多尺度特征。然后,用多尺度特征提取模块替换FCN-8s中的3×3卷积,又对FCN-8s网络结构做了一定的改进,得到了改进FCN-8s。最后,在灵武长枣数据集上进行试验,结果表明,改进FCN-8s的枣类交并比、平均交并比、像素准确率、召回率和像素准确率、召回率的调和平均值F_1分数分别达到了93.50%、96.41%、98.44%、97.86%和98.15%,比原FCN-8s的各项评价指标分别高出了11.31、6.20、1.51、5.21和3.14个百分点。网络参数量为5.37×106,分割速度为16.20帧/s。改进FCN-8s满足了灵武长枣智能化采摘机器人对视觉识别系统的要求,为实现灵武长枣的智能化采摘提供了技术支持。  相似文献   

5.
快速傅里叶变换结合SVM算法识别地表玉米秸秆覆盖率   总被引:5,自引:4,他引:1  
针对田间环境复杂、秸秆形态多样、秸秆覆盖率判断主观性影响过大、补贴面积测量耗时耗力等问题,该文开展了秸秆覆盖率自动识别方法研究和监测设备研制。首先,提出利用时频变换进行秸秆识别,设计高通滤波器提取了图像的频域特征进行自适应分割。基于集成分类器利用已有的秸秆识别数据训练支持向量机分类器,对秸秆图像进行再识别和筛选。最后,设计多尺度占比滤波器,对识别图像中的噪声和空洞进行修补,生成适应多种情况的秸秆覆盖率识别算法。与北斗定位模块、无线通讯模块、摄像头、传感器、服务器等设备共同组成秸秆覆盖率识别系统。试验结果表明,设备的秸秆覆盖率识别误差为4.55%,平均单张图像耗时0.05 s。研究结果满足保护性耕作中的自动化监测要求,可为保护性耕作作业质量评测提供有效的技术支持。  相似文献   

6.
针对田间环境复杂、秸秆形态多样、秸秆覆盖率判断主观性影响过大、补贴面积测量耗时耗力等问题,该文开展了秸秆覆盖率率自动识别方法研究和监测设备研制。首先,提出利用时频变换进行秸秆识别,设计高通滤波器提取了图像的频域特征进行自适应分割。基于集成分类器利用已有的秸秆识别数据训练支持向量机分类器,对秸秆图像进行再识别和筛选。最后,设计多尺度占比滤波器,对识别图像中的噪声和空洞进行修补,生成适应多种情况的秸秆覆盖率识别算法。与北斗定位模块、无线通讯模块、摄像头、传感器、服务器等设备共同组成秸秆覆盖率识别系统。试验结果表明,设备的秸秆覆盖率识别误差为4.55%,平均单张图像耗时0.05 s。研究结果满足保护性耕作中的自动化监测要求,可为保护性耕作作业质量评测提供有效的技术支持。  相似文献   

7.
针对现有目标检测模型对自然环境下茶叶病害识别易受复杂背景干扰、早期病斑难以检测等问题,该研究提出了YOLOv5-CBM茶叶病害识别模型。YOLOv5-CBM以YOLOv5s模型为基础,在主干特征提取阶段,将一个带有Transformer的C3模块和一个CA(coordinate attention)注意力机制融入特征提取网络中,实现对病害特征的提取。其次,利用加权双向特征金字塔(BiFPN)作为网络的Neck,通过自适应调节每个尺度特征的权重,使网络在获得不同尺寸特征时更好地将其融合,提高识别的准确率。最后,在检测端新增一个小目标检测头,解决了茶叶病害初期病斑较小容易出现漏检的问题。在包含有3种常见茶叶病害的数据集上进行试验,结果表明,YOLOv5-CBM对自然环境下的初期病斑检测效果有明显提高,与原始YOLOv5s模型相比,对早期茶饼病和早期茶轮斑病识别的平均精度分别提高了1.9和0.9个百分点,对不同病害检测的平均精度均值达到了97.3%,检测速度为8ms/幅,均优于其他目标检测算法。该模型具有较高的识别准确率与较强的鲁棒性,可为茶叶病害的智能诊断提供参考。  相似文献   

8.
为提高自然环境下生姜叶片病虫害的识别精确率,提出一种基于改进YOLOv5s的生姜叶片病虫害识别模型。建立了田间不同自然环境条件下的生姜叶片病虫害数据集,为保证模型在田间移动设备上流畅运行,实现网络模型的轻量化,在YOLOv5s中引入GhostNet网络中的Ghost模块和Ghost BottleNeck结构。同时,为避免生姜叶片病虫害图像小目标特征丢失的情况,增强图像特征提取,加入CA注意力机制模块,提升生姜叶片病虫害的识别准确率和定位精确度。改进后的模型参数量、计算量和权重文件大小分别为YOLOv5s模型的52.0%、50.6%和55.2%,对生姜叶片病虫害识别平均精度均值达到了83.8%。与Faster-RCNN、SSD、YOLOv4、YOLOv5s、Tea-YOLOv5s等算法相比,平均精度均值分别提高37.6、39.1、22.5、1.5、0.7个百分点,将改进后的目标检测模型部署在Jetson Orin NX开发板上,并使用TensorRT、Int8量化和CUDA等方法对检测模型加速,加速后的模型检测速度为74.3帧/s,满足实时检测的要求,测试结果显示,改进后的模型减少了漏检、误检的情况,并且对目标定位更加精准,适用于自然环境下生姜叶片病虫害的精准识别,为后续生姜机械自动化施药作业提供技术理论支持。  相似文献   

9.
基于改进YOLOv5s的自然环境下猕猴桃花朵检测方法   总被引:2,自引:2,他引:0  
为实现对猕猴桃花朵的快速准确检测,该研究提出了一种基于改进YOLOv5s的猕猴桃花朵检测模型YOLOv5s_S_N_CB_CA,并通过对比试验进行了精度验证。在YOLOv5s基础上引入C3HB模块和交叉注意力(criss-cross atte ntion,CCA)模块增强特征提取能力,结合样本切分和加入负样本处理方法进一步提升模型精度。改进模型的检测精确率为85.21%,召回率为90%,模型大小为14.6 MB,交并比(intersection over union,IoU)为0.5下的均值平均精度(mAP0.5)为92.45%,比仅进行样本缩放处理的原始YOLOv5s提高了31.91个百分点,检测速度为35.47帧/s,比原始YOLOv5s提高了34.15%。使用改进模型对自然环境下不同天气、晴天不同时段光照强度下的猕猴桃花朵进行检测,结果表明模型检测晴天、阴天下猕猴桃花朵的mAP0.5分别为91.96%、91.15%,比原始YOLOv5s分别高出2.55、2.25个百分点;检测晴天9:00-11:00、15:00-17:00光强下猕猴桃花...  相似文献   

10.
基于语义分割的非结构化田间道路场景识别   总被引:2,自引:2,他引:0  
环境信息感知是智能农业装备系统自主导航作业的关键技术之一。农业田间道路复杂多变,快速准确地识别可通行区域,辨析障碍物类别,可为农业装备系统高效安全地进行路径规划和决策控制提供依据。该研究以非结构化农业田间道路场景为研究对象,根据环境对象动、静态属性进行类别划分,提出一种基于通道注意力结合多尺度特征融合的轻量化语义分割模型。首先采用Mobilenet V2轻量卷积神经网络提取图像特征,将混合扩张卷积融入特征提取网络最后2个阶段,在保证特征图分辨率的基础上增加感受野并保持信息的连续性与完整性;然后引入通道注意力模块对特征提取网络各阶段特征通道依据重要程度重新标定;最后通过空间金字塔池化模块将多尺度池化特征进行融合,获取更加有效的全局场景上下文信息,增强对复杂道路场景识别的准确性。语义分割试验表明,不同道路环境下本文模型可以对场景对象进行有效识别解析,像素准确率和平均像素准确率分别为94.85%、90.38%,具有准确率高、鲁棒性强的特点。基于相同测试集将本文模型与FCN-8S、SegNet、DeeplabV3+、BiseNet模型进行对比试验,本文模型的平均区域重合度为85.51%,检测速度达到8.19帧/s,参数数量为,相比于其他模型具有准确性高、推理速度快、参数量小等优点,能够较好地实现精度与速度的均衡。研究成果可为智能农业装备在非结构化道路环境下安全可靠运行提供技术参考。  相似文献   

11.
生猪轮廓红外与光学图像的融合算法   总被引:8,自引:5,他引:3  
该文针对生猪红外热图像和光学图像的融合,提出一种基于非子采样轮廓波的图像融合算法。在图像多尺度、多方向分解的基础上,设计了基于邻域平均能量和邻域方差的低频子带系数加权融合规则,以及基于邻域能量最大的带通系数融合规则。针对亮度-色度-饱和度变换法(intensity-hue-saturation transform,IHS)、小波变换法(discrete wavelet transform,DWT)、轮廓波变换法(contourlet transform,CT)等融合方法以及非子采样轮廓波变换(nonsubsampled contourlet transform,NSCT)域下不同融合规则进行了对比试验,试验结果表明该文算法具有较好的融合效果。定量融合评价指标中,平均梯度指标高于IHS、DWT、CT等方法25%以上,边缘信息保持指标高于其他3种方法23%以上。该文方法的提出对于改善生猪异常视觉监测中的前景轮廓提取具有较大意义;同时,对进一步开展猪体部位区域温度特征提取,建立生猪多源特征融合的计算机视觉异常监测系统,提高生猪异常预警可靠性具有积极意义。  相似文献   

12.
复杂环境下柿子和苹果绿色果实的优化SOLO分割算法   总被引:2,自引:2,他引:0  
为了实现果园复杂环境下柿子和苹果绿色果实的精准分割,该研究提出了一种基于SOLO的绿色果实优化分割算法。首先,利用分离注意力网络(ResNeSt)设计SOLO算法的主干网络,用于提取绿色果实特征;其次,为更好地应对绿色果实特征的多尺度问题,引入特征金字塔网络(Feature Pyramid Networks,FPN),构造ResNeSt+FPN组合结构;最后,将SOLO算法分为类别预测和掩码生成2个分支,类别预测分支在预测语义类别的同时,掩码生成分支实现了对绿色果实的实例分割。试验结果表明,优化SOLO分割算法的平均召回率和精确率分别达到94.84%和96.16%,平均每张绿色果实图像在图形处理器(Graphics Processing Unit,GPU)上的分割时间为0.14 s。通过对比试验可知,优化SOLO分割算法的召回率分别比优化掩膜区域卷积神经网络算法(Optimized Mask Region Convolutional Neural Network,Optimized Mask R-CNN)、SOLO算法、掩膜区域卷积神经网络算法(Mask Region Convolutional Neural Network,Mask R-CNN)和全卷积实例感知语义分割算法(Fully Convolutional Instance-aware Semantic Segmentation,FCIS)提高了1.63、1.74、2.23和6.52个百分点,精确率分别提高了1.10、1.47、2.61和6.75个百分点,分割时间缩短了0.06、0.04、0.11和0.13 s。该研究算法可为其他果蔬的果实分割提供理论借鉴,扩展果园测产和机器采摘的应用范围。  相似文献   

13.
基于多特征融合和深度置信网络的稻田苗期杂草识别   总被引:9,自引:4,他引:5  
杂草的准确识别是田间杂草精准防控管理的前提,机器视觉技术是实现杂草准确识别的有效手段。该文以水稻苗期杂草为研究对象,采集稻田自然背景下和不同光照条件下的6种杂草图像共928幅,包括空心莲子草、丁香蓼、鳢肠、野慈姑、稗草和千金子。采用1.1G-R颜色因子将杂草RGB图像进行灰度化,选择自动阈值自动分割得到杂草前景二值图像,通过腐蚀膨胀形态学操作进行叶片内部孔洞填充,应用面积滤波去除其他干扰目标,最后将杂草二值图像与RGB图像进行掩膜运算得到去除背景的杂草图像;提取杂草图像的颜色特征、形状特征和纹理特征共101维特征,并对其进行归一化处理。在双隐含层和单隐含层的深度置信网络(deep belief networks,DBN)结构基础上,对DBN隐含层节点数选择方法进行研究。针对双隐含层DBN节点数,选择恒值型、升值型和降值型3种节点组合方式进行优化研究,当网络结构为101-210-55-6时杂草识别率为83.55%;通过对单隐含层节点参数优化得到网络结构为101-200-6时杂草识别率达到91.13%。以同一测试样本的运行时间值作为模型的测试时间对3种不同模型进行耗时测试,SVM模型、BP模型和DBN模型测试结果分别为0.029 7、0.030 6和0.034 1 s,试验结果表明基于多特征融合的DBN模型的识别精度最高,且耗时较其他2种模型相差不大,可满足实时检测的速度要求,所以在实际应用中应优先选择基于多特征融合的DBN模型。该研究可为稻田杂草识别与药剂选择性喷施提供参考。  相似文献   

14.
针对果园环境下双目采集系统采集的飞行时间(Time of Flight,ToF)与可见光异源图像间匹配精度差的问题,该研究提出一种基于局部峰值的目标显著区域提取策略及最大期望算法的脉冲耦合神经网络分割的ToF与可见光果园苹果图像配准方法。首先,利用高斯差函数计算可见光图像中显著性区域,对可见光图像的红绿分量进行预处理;然后,以图像局部灰度值的二维正态分布作为目标分量,使用Otsu提取具有固定阈值的前景作为局部峰值提取策略,对ToF与可见光图像初步筛选特征区域,利用最大期望算法改进脉冲耦合神经网络(Pulse Coupled Neural Network,PCNN)动态阈值,使用局部图像梯度计算链接强度计算链接强度,利用图像区域方差改进终止条件,提出一种基于最大期望的脉冲耦合神经网络(Pulse Coupled Neural Network based on Expectation Maximization,EM-PCNN)算法对预选区域进行精细化分割;接着计算连通区域不变矩,利用不变矩特征原理寻找目标中心同名点,进一步筛选特征区域;最后,同名点进行随机抽样一致算法(Random Sample Consensus,RANSAC)提纯,将提纯后的同名点坐标代入变换模型计算模型参数,完成配准。在不同光照条件下均方根误差达3.05~4.75,配准点达3~5。EM-PCNN算法对两组ToF置信图像分割的准确率分别为96.62%和73.84%。试验结果表明该方法对双目采集系统采集的ToF与可见光异源果园苹果图像可实现较好配准效果,且对图像平移、旋转、缩放均具有可抗性。研究结果对ToF与可见光异源图像在果园环境下自动配准提供了技术参考。  相似文献   

15.
基于多源信息融合技术的马铃薯痂疮病无损检测方法   总被引:6,自引:5,他引:1  
为了提高马铃薯痂疮病无损检测识别精度,基于机器视觉和近红外光谱的多源信息融合技术,该文提出DS(dempster shafer)证据理论结合支持向量机的马铃薯痂疮病无损检测方法。试验以360个马铃薯为研究对象,在图像特征分割时,确定了差影法结合马尔可夫随机场模型法为最佳分割方法;在光谱特征提取时,确定主成分分析方法为最佳降维方法。采用支持向量机识别方法分别建立机器视觉和近红外光谱的马铃薯痂疮病识别模型,模型对测试集马铃薯识别率分别为89.17%、91.67%。采用DS证据理论与支持向量机相结合的方法对获取的图像特征和光谱特征进行融合,建立了基于机器视觉和近红外光谱技术的多源信息融合马铃薯痂疮病检测模型,该模型对测试集马铃薯识别率为95.83%。试验结果表明,该技术对马铃薯痂疮病进行检测是可行的,融合模型比单一的机器视觉模型或近红外光谱模型识别率高。  相似文献   

16.
针对多源遥感影像自动配准中难以提取大量同名特征点的问题,提出了一种结合非子采样轮廓变换和形态收缩算子的自动配准算法。结合非子采样轮廓变换和形态收缩算子的特征提取算法能够克服角度和尺度偏差,在多方向、多尺度空间精确提取强边缘上的关键结构特征点;基于低频波段的归一化互信息匹配算法和三角形一致检验算法能够提取到大量高可靠性的同名特征点对,保证了多源遥感影像的高精度配准。文中选取角度和尺度偏差显著的SPOT-5(P)和ASTER影像组合进行试验,结果证明以上算法能够检测到大量分布均匀的同名特征点对,配准模型精度趋近于1个像元。该研究可为多源遥感数据的融合和目标识别提供前提条件。  相似文献   

17.
不同光照条件下农作物图像Contourlet域融合方法   总被引:2,自引:2,他引:0  
为了更好地实现不同光照条件下的农作物图像融合,在Contourlet变换(contourlet transform,CT)的基础上采用了适合农作物图像的融合规则进行了融合处理。首先,采用Contourlet变换对源图像进行多尺度、多方向分解,得到低频子带系数和带通方向子带系数。然后,针对低频子带系数的选择,采用了一种改进的线性加权融合方法,以期减小噪声对融合结果的影响;针对带通方向子带系数的选择,结合人眼视觉特性,采用了一种基于梯度最大化规则的系数选择方案,得到待融合图像的系数。最后,经过Contourlet逆变换得到融合图像。与小波变换方法(wavelet transform,WT)进行了融合结果的比较,结果表明,与WT方法相比,该文方法在互信息量(mutual information,MI)、空间频率(spatial frequency,SF)、均方差(mean square error,MSE)、信息熵(entropy,Ent)、相关系数(correlation coefficient,CC)、平均梯度(average gradient,G’)和峰值信噪比(peak signal to noise ratio,PSNR)指标上均有了较大提升,表明利用该方法可以取得优于WT的融合效果;在此基础上,利用CT常见融合规则与文中融合规则进行了比较,同样表明CT方法可以有效提高图像融合的效果。研究表明,将文中所采用的融合规则应用于不同光照条件下的农作物图像融合是有效的、可行的。该研究可为变光照条件下的作物图像融合技术提供参考。  相似文献   

18.
基于视觉显著性改进的水果图像模糊聚类分割算法   总被引:10,自引:8,他引:2  
准确分割水果图像是采摘机器人实现视觉定位的关键技术。该文针对传统模糊聚类对初始聚类中心敏感、计算量大和易出现图像过分割等问题,结合机器人的视觉特性,提出了一种基于多尺度视觉显著性改进的水果图像模糊聚类分割算法。首先,选择适当的颜色模型把彩色水果图像转换为灰度图像;然后对灰度图像做不同尺度的高斯滤波处理,基于视觉显著性的特点,融合了多个不同尺度的高斯滤波图像,形成图像聚类空间;最后,用直方图和模拟退火粒子群算法对图像的传统模糊聚类分割算法进行了改进,用改进的算法分别对采集到的100张成熟荔枝和柑橘图像,各随机选取50张,进行图像分割试验。试验结果表明:该方法对成熟荔枝和柑橘的图像平均果实分割率分别为95.56%和93.68%,平均运行时间分别为0.724和0.790s,解决了水果图像过分割等问题,满足实际作业中采摘机器人对果实图像分割率和实时性的要求,为图像分割及其实时获取提供了一种新的基础算法,为视觉精确定位提供了有效的试验数据。  相似文献   

19.
为解决果园机器视觉导航中果树行识别易受果园复杂环境干扰的问题,该研究提出一种采用动态选取融合因子对彩色图像与深度图像进行图层融合并采用纹理-灰度梯度能量模型进行图像分割的果树行视觉识别算法。首先,通过搭建立体视觉系统获取果园彩色图像与对应的深度图像,并基于饱和度(S)通道图像的灰度值选取动态融合因子,实现对果园彩色图像与深度图像的图层融合;然后,分别计算融合图像的纹理特征图像与灰度梯度特征图像,并建立纹理-灰度梯度结合的能量模型,基于模型能量最小原则进行树干与背景的分割;最后,以树干与地面交点为果树行特征点进果树行直线拟合,完成果树行角度的识别。并对上述算法分别进行果树行识别试验与移动作业平台视觉对行导航试验。果树行识别试验结果表明,该研究算法果树行角度识别平均偏差为2.81°,与基于纹理、灰度梯度特征的果树行识别算法相比识别平均偏差分别降低2.37°和1.25°。移动作业平台视觉导航试验结果表明,在作业平台速度为0.6 m/s时,对行行驶最大偏差为12.2 cm,平均偏差为5.94 cm。该研究提出的视觉导航算法可以满足果园移动作业平台视觉对行导航需求,研究成果将为基于机器视觉的果园自动导航系统的研究与优化奠定基础。  相似文献   

20.
针对水下图像普遍存在低对比度、低亮度和颜色失真,以及现有的水下图像复原方法恢复结果不自然、亮度不均和主体色调偏红等问题。该文提出了双背景光自适应融合与透射图精准估计水下图像方法。采用基于水下光衰减特性和背景光平坦性的双背景光自适应融合策略以提高估算的融合背景光准确度,通过新型水下暗通道先验、反向饱和图和三通道光谱衰减系数估算出更加精准的水下图像透射图,最后将估算出的融合背景光与精准透射图应用于水下成像模型得到复原后的水下图像。在广东罗非鱼良种场水产养殖数据集和水下图像增强基准数据集的试验结果表明:对比暗通道先验、最大强度先验、基于模糊和光吸收、蓝绿通道去雾、基于背景光统计模型和透射图优化5种水下图像复原方法,在主观恢复效果评价中,该文方法能有效纠正水下图像失真、亮度偏暗和主体色调偏红等问题;在7个客观评价指标中,该文方法在6个指标中取得最好值,其中全参考图像质量评价指标中的峰值信噪比、结构相似性、均方误差和视觉信息保真度等数值比次好水下图像复原方法分别提升了0.52%、2.1%、3.4%和0.86%;无参考图像质量评价指标中的自然图像质量评价指标和水下图像质量评价数值比次好水下图像复原方法分别提升了2.4%和7.4%。该文方法在解决传统水下图像复原方法中存在的亮度不均和颜色偏红等问题具有一定优势,可以为水下图像复原方法提供技术借鉴。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号