排序方式: 共有63条查询结果,搜索用时 31 毫秒
41.
基于模糊集理论的苹果表面阴影去除方法 总被引:2,自引:7,他引:2
为了提高阴影影响下的苹果目标提取精度,该文提出了一种基于模糊集理论的苹果表面阴影去除方法。该方法将含阴影图像作为一个模糊矩阵,利用所设计的隶属函数进行图像去模糊化处理,达到图像增强的目的,进而削弱苹果表面阴影对目标分割的影响。为了验证算法的有效性,采用基于灰度阈值和基于颜色聚类2种算法对去除阴影前后的目标图像进行分割,并选用分割误差、假阳性率、假阴性率和重叠系数4项指标进行了分析比较,试验结果表明,去除阴影之后,2种分割算法所提取的苹果目标区域较去除阴影之前有了较大的提高,2种分割算法的平均分割误差分别为3.08%和3.46%,比去除阴影之前降低了20.53%和25.92%,假阳性率、假阴性率分别降低了29.79%、29.98%和21.25%、29.83%,重叠系数分别提高30.96%和24.55%。与灰度变换法去除阴影后分割的效果比较表明,该方法的平均分割误差降低了29.23%,假阳性率、假阴性率分别降低了30.97%和20.40%,重叠系数提高了26.60%;与直方图均衡化法的比较表明,分割误差降低了25.59%,假阳性率、假阴性率分别降低了22.74%和27.56%,而重叠系数提高了27.43%。这一系列数据表明,基于模糊集理论的阴影去除方法具有较好的阴影去除效果。经过去除阴影后,可以获得更高的目标分割性能,目标提取精度显著提高,表明将模糊集方法应用于苹果目标的阴影去除可以有效地提高苹果目标区域的提取精度。 相似文献
42.
43.
奶牛体温实时远程监测系统设计与实现 总被引:1,自引:0,他引:1
为了远程、实时监测奶牛体温,给疾病诊断和发情状况判断提供科学依据,设计并实现了基于ZigBee网络的奶牛体温监测系统。以CC2430芯片为核心开发了测温节点、路由节点和协调器节点,基于ARM9的微处理器S3C2440A和嵌入式Linux构建了网关节点;采用ZigBee技术实现无线网络自组网和监测数据自动汇聚;开发了测温节点程序、基于SQLite3的网关管理软件,并用LabVIEW设计了数据存储、体温监测预警及系统运行状态监视的上位机软件。本系统为奶牛疾病及分娩期预测提供了有效工具,对其他大型动物的监测也具有一定的指导意义。 相似文献
44.
实现复杂场景下导航路径的自动获取,是大田小麦自主作业机器人连续作业的重要环节和基础。通过简单线性迭代聚类算法(simple linear iterative cluster,简称SLIC),在获取麦田裸地超像素区域的基础上,使用Otsu算法实现了裸地区域的自适应分割,并通过数学形态学闭运算、Canny边缘检测、Hough直线检测等操作实现了导航路径的精确获取。为了验证本研究方法的有效性,将计算所得的导航角度与真实角度值间的平均误差及均方差作为评价指标,并从34幅不同遮挡类别图像中随机选取15幅图像进行了测试。结果表明,本研究方法的导航角度平均误差为1.584°,均方差为1.293°。表明将该方法用于田间小麦导航路径的获取是有效的。 相似文献
45.
奶山羊乳房区域的准确提取是奶山羊非侵入式体温检测的关键,但受乳房区域遮挡及热红外图像分辨率不高等因素影响,其检测精度尚待进一步提升。基于热红外成像技术,提出了一种基于改进YOLO v5s的奶山羊乳房关键部位检测方法。通过将原模型Backbone网络的部分卷积模块替换为ShuffleNetV2结构,以达到降低网络部署和训练过程中的参数量、实现轻量化网络设计的目的。通过在Neck网络检测头(Head)前端引入CBAM注意力机制,以达到在降低网络复杂程度的同时保证奶山羊乳房区域检测精度的目的。本研究采集了包含完整信息、残缺信息和边缘模糊的孕期奶山羊乳房红外图像4611幅,并在部位标注后进行模型训练。经测试,模型精确率为93.7%,召回率为86.1%,平均精度均值为92.4%,参数量为8×105,浮点运算量为1.9×109。与YOLO v5n、YOLO v5s、YOLO v7-tiny、YOLO v7、YOLO v8n和YOLO v8s目标检测网络相比,网络的精确率分别提高1.9、1.2、1.6、4.3、3.5、2.7个百分点,召回率提高3.4、5.0、0.1、2.6、0.9、1.5个百分点,参数量降低1.1×106、6.2×106、5.2×106、3.6×107、2.4×106和1.0×107,浮点运算量降低2.6×109、1.4×1010、1.1×1010、1.0×1011、6.8×109和2.7×1010。试验结果表明,本研究所提出的网络可以实现奶山羊乳房关键部位的精确检测,且在不损失检测精度的基础上显著降低网络的参数量,有利于网络在不同环境下的部署和使用,可为奶山羊非接触式体温监测系统设计提供借鉴。 相似文献
46.
自然场景下苹果目标的精确识别与定位是智慧农业信息感知与获取领域的重要内容。为了解决自然场景下苹果目标识别与定位易受枝叶遮挡的问题,在K-means聚类分割算法的基础上,提出了基于凸壳原理的目标识别算法,并与基于去伪轮廓的目标识别算法和全轮廓拟合目标识别算法作了对比。基于凸壳原理的目标识别算法利用了苹果近似圆形的形状特性,结合K-means算法与最大类间方差算法将果实与背景分离,由凸壳原理得到果实目标的凸壳多边形,对凸壳多边形进行圆拟合,标定出果实位置。为验证算法有效性,对自然场景下的157幅苹果图像进行了测试,基于凸壳原理的目标识别算法、基于去伪轮廓的目标识别方法和全轮廓拟合目标识别方法的重叠率均值分别为83.7%、79.5%和70.3%,假阳性率均值分别为2.9%、1.7%和1.2%,假阴性率均值分别为16.3%、20.5%和29.7%。结果表明,与上面两种对比算法相比较,基于凸壳原理的目标识别算法识别效果更好且无识别错误的情况,该算法可为自然环境下的果实识别与分割问题提供借鉴与参考。 相似文献
47.
基于YOLO v7-ECA模型的苹果幼果检测 总被引:1,自引:0,他引:1
为实现自然环境下苹果幼果的快速准确检测,针对幼果期苹果果色与叶片颜色高度相似、体积微小、分布密集,识别难度大的问题,提出了一种融合高效通道注意力(Efficient channel attention, ECA)机制的改进YOLO v7模型(YOLO v7-ECA)。在模型的3条重参数化路径中插入ECA机制,可在不降低通道维数的前提下实现相邻通道局部跨通道交互,有效强调苹果幼果重要信息、抑制冗余无用特征,提高模型效率。采集自然环境下苹果幼果图像2 557幅作为训练样本、547幅作为验证样本、550幅作为测试样本,输入模型进行训练测试。结果表明,YOLO v7-ECA网络模型准确率为97.2%、召回率为93.6%、平均精度均值(Mean average precision, mAP)为98.2%、F1值为95.37%。与Faster R-CNN、SSD、Scaled-YOLO v4、YOLO v5、YOLO v6、YOLO v7网络模型相比,其mAP分别提高15.5、4.6、1.6、1.8、3.0、1.8个百分点,准确率分别提高49.7、0.9、18.5、1.2、0.9、1.0个百分点,... 相似文献
48.
基于Snake模型与角点检测的双果重叠苹果目标分割方法 总被引:1,自引:4,他引:1
为了实现重叠苹果目标的精确分割,提出了一种Snake模型与角点检测相结合的重叠苹果目标分割方法。该方法首先利用Snake模型得到重叠苹果目标的轮廓,接着采用提出的基于距离测度的角点检测算法寻找重叠苹果目标的角点,针对距离扰动产生伪角点的问题,采用3级db1小波变换得到不含细节信号的近似距离信号,并通过Spline样条内插算法使其恢复到原始信号的长度,从而去除伪角点,最后提出了一种基于长轴分割准则的分割点选取方法并实现了重叠苹果目标的分割。为了验证算法的有效性,利用20幅重叠苹果目标进行了试验,并与人工计算得到的分割线进行了对比,试验结果表明,利用文中算法分割重叠苹果目标的最大误差为13.27°,最小误差为1.20°,平均误差为6.41°,表明Snake模型与角点检测算法相结合对重叠苹果目标具有较好的分割性能,将该方法应用于重叠苹果目标的分割是可行的。 相似文献
49.
基于改进FCOS网络的自然环境下苹果检测 总被引:1,自引:1,他引:0
为了快速识别和准确定位自然环境下苹果果实目标,提出了一种改进全卷积单阶段无锚框(Fully Convolutional One-Stage Object Detection,FCOS)网络的苹果目标检测方法。该网络在传统FCOS网络基础上,使用模型体积较小的darknet19作为骨干网络,将center-ness分支引入到回归分支上。同时提出了一种融合联合交并比(GIoU)和焦点损失(Focal loss)的损失函数,在提高检测性能的同时降低正负样本比例失衡带来的误差。首先,对田间采集的自然环境下的苹果图像进行数据增强和标注,使用darknet骨干网络提取图像特征,然后将不同尺度待检测目标分配到不同的网络层中进行预测,最后进行分类和回归,实现苹果目标的检测。该研究在计算机工作站上对不同光照条件、不同密集程度和不同遮挡程度的苹果果实进行检测试验,并与传统FCOS网络的检测结果进行对比分析。基于改进FCOS网络的检测准确率为96.0%,检测精度均值(mean Average Precision,mAP)为96.3%。试验结果表明,改进FCOS网络比传统FCOS网络的苹果检测方法在检测准确度上有提高,具有较强的鲁棒性。 相似文献
50.
基于立体视觉技术的多种农田障碍物检测方法 总被引:2,自引:0,他引:2
从摄像机标定、图像获取、双目校正、立体匹配、深度计算等方面研究多种农田障碍物检测方法,分别用Bouguet算法进行立体校正、用区域匹配方法获取视差图、用三角测量方法计算障碍物的深度,获取了不同环境下的5种障碍物及其位置信息,并使用计算机视觉函数库OpenCV,提高了算法的实时性。试验表明:障碍物与摄像机的距离小于2 000 mm时,准确识别率在96%以上,深度的绝对误差在±30 mm内(即相对误差在1.5%以下),且完成一次障碍物检测的时间小于100 ms。 相似文献