首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 368 毫秒
1.
针对我国鸭蛋孵化行业剔除无精蛋的方法效率低、剔除的无精蛋已丧失食用价值、造成资源巨大浪费的问题,运用机器视觉技术,以孵化至第3天的种鸭蛋为研究对象,运用深度卷积神经网络(Convolutional neural networks,CNN)端对端的特点,在Alexnet神经网络基础上进行改进,将孵化第3天的种鸭蛋透射图像直接输入到深度卷积神经网络。用卷积层代替全连接层,改变卷积核的尺寸,搭建了种鸭蛋受精信息识别网络(Eggnet)模型,实现了对种鸭蛋孵化早期受精信息的无损判别。试验结果表明,该方法对孵化第3天的种鸭蛋图像测试集分类准确率高达98.87%,验证集分类准确率为97.97%,平均单枚蛋检测时间仅为0.24 s。  相似文献   

2.
设计了一套基于计算机视觉检测无精蛋的特征无损装置,实现了种蛋孵化前对无精蛋与受精蛋的分离。无精蛋识别系统以数码相机、计算机和打印机快速搭建计算机视觉系统,应用Canny算子实现了种蛋图像边缘提取,利用无精蛋的边缘轮廓特征规律,实现无精蛋的识别。试验结果表明,基于计算机视觉无精蛋识别装置对无精蛋筛选精度为1 0 0%。  相似文献   

3.
基于嵌入式系统与机器视觉的上孵前无精蛋识别系统   总被引:2,自引:0,他引:2  
为避免未受精蛋的孵化,将计算机图像处理技术与嵌入式技术有机结合,提出了无精蛋识别系统设计方案.该系统首先通过计算机视觉技术采集种蛋图像,之后运用数字图像处理技术完成种蛋图像区域不变性参数(圆度、复杂性、伸长度、球状性、长短轴比和平均变动系数)的提取,最后采用已训练的遗传神经网络实现无精蛋识别.实验结果表明:该系统简单便捷,易于实现,对种蛋的600枚非实验样本的识别精度为99.3%,满足上孵前剔除无精蛋的要求.  相似文献   

4.
基于机器视觉与敲击振动融合的鸭蛋孵化特性检测   总被引:2,自引:0,他引:2  
为提高判别种蛋孵化前期受精的准确性和稳定性,将视觉和声学2种传感器信息在孵化第5天进行特征层融合,采用2种人工神经网络构建种蛋孵化前期受精性判断的融合模型。研究表明:采用LVQ神经网络判别模型的准确率和稳定性,优于BP神经网络。单独利用计算机视觉技术和敲击振动技术对鸭蛋孵化早期受精情况的判别准确率为92%和88%,而将2种传感器信息进行融合构建的模型的准确率可达98%,说明传感器信息融合技术在判断鸭蛋孵化前期受精性方面是可行的。  相似文献   

5.
机器视觉因具有检测速度快、稳定性高及成本低等优点,已发展成为禽蛋无损检测领域主流检测手段。使用该技术对禽蛋进行无损检测时,需要依赖大量禽蛋图像作为数据支撑才能取得较好的检测效果。由于养殖安全等限制,禽蛋图像数据的采集成本较高,针对该问题,提出了一种适应于小样本禽蛋图像检测的原型网络(Prototypical network)。该网络利用引入注意力机制的逆残差结构搭建的卷积神经网络将不同类别的禽蛋图像映射至嵌入空间,并利用欧氏距离度量测试禽蛋图像在嵌入空间的类别,从而完成禽蛋图像的分类。本文利用该网络分别验证了小样本条件下受精蛋与无精蛋、双黄蛋与单黄蛋及裂纹蛋与正常蛋的分类检测效果,其检测精度分别为95%、98%、88%。试验结果表明本文方法能够有效地解决禽蛋图像检测中样本不足的问题,为禽蛋图像无损检测研究提供了新的思路。  相似文献   

6.
种蛋图像分析研究是实现计算机视觉从种蛋中分离受精蛋和无精蛋检验的基础。为此,开发了基于Matlab平台的无精蛋识别软件运行界面,并对其系统菜单功能模块进行了演示。结果显示,基于Matlab平台的无精蛋识别软件可达到实际应用的要求。  相似文献   

7.
基于优化Faster R-CNN的棉花苗期杂草识别与定位   总被引:2,自引:0,他引:2  
为解决棉花苗期杂草种类多、分布状态复杂,且与棉花幼苗伴生的杂草识别率低、鲁棒性差等问题,以自然条件下新疆棉田棉花幼苗期的7种常见杂草为研究对象,提出了一种基于优化Faster R-CNN和数据增强的杂草识别与定位方法。采集不同生长背景和天气条件下的杂草图像4694幅,对目标进行标注后,再对其进行数据增强;针对Faster R-CNN模型设计合适的锚尺度,对比VGG16、VGG19、ResNet50和ResNet101这4种特征提取网络的分类效果,选定VGG16作为最优特征提取网络,训练后得到可识别不同天气条件下的棉花幼苗与多种杂草的Faster R-CNN网络模型。试验表明,该模型可对杂草与棉花幼苗伴生、杂草分布稀疏或分布紧密且目标多等情况下的杂草进行有效识别与定位,优化后的模型对单幅图像平均识别时间为0.261s,平均识别精确率为94.21%。在相同训练样本、特征提取网络以及环境设置条件下,将本文方法与主流目标检测算法——YOLO算法和SSD算法进行对比,优化后的Faster R-CNN模型具有明显优势。将训练好的模型置于田间实际环境进行验证试验,识别过程对采集到的150幅有效图像进行了验证,平均识别精确率为88.67%,平均每幅图像耗时0.385s,说明本文方法具有一定的适用性和可推广性。  相似文献   

8.
为准确高效地实现无接触式奶山羊个体识别,以圈养环境下奶山羊面部图像为研究对象,提出一种基于改进YOLO v5s的奶山羊个体识别方法。首先,从网络上随机采集350幅羊脸图像构成羊脸面部检测数据集,使用迁移学习思想预训练YOLO v5s模型,使其能够检测羊脸位置。其次,构建包含31头奶山羊3 844幅不同生长期的面部图像数据集,基于预训练的YOLO v5s,在特征提取层中引入SimAM注意力模块,增强模型的学习能力,并在特征融合层引入CARAFE上采样模块以更好地恢复面部细节,提升模型对奶山羊个体面部的识别精度。实验结果表明,改进YOLO v5s模型平均精度均值为97.41%,比Faster R-CNN、SSD、YOLO v4模型分别提高6.33、8.22、15.95个百分点,比YOLO v5s模型高2.21个百分点,改进模型检测速度为56.00 f/s,模型内存占用量为14.45 MB。本文方法能够准确识别具有相似面部特征的奶山羊个体,为智慧养殖中的家畜个体识别提供了一种方法支持。  相似文献   

9.
基于YOLO v3的生猪个体识别方法   总被引:1,自引:0,他引:1  
为实现高效的猪只个体识别,提出一种基于机器视觉的生猪个体识别方法。通过采集母猪和仔猪个体图像,对图像进行扩充和筛选,制作训练集和测试集。试验采用基于YOLO v3的识别模型,并与Faster RCNN和SSD模型识别结果进行比较,结果表明:对仔猪的识别平均精度均值达89.65%,准确率达95.99%,召回率达84.09%。对母猪的识别平均精度均值达95.16%,准确率达96.00%,召回率达96.00%。相较于Faster RCNN,该模型的识别速率是其7倍以上,相较于SSD,该模型的平均精度均值提高9%,说明该模型在识别速率和识别精度上都达到了较高水平。该研究可为猪只个体智能识别、数据监测及养殖信息化等提供理论依据。  相似文献   

10.
发芽与表面损伤检测是鲜食马铃薯商品化的重要环节。针对鲜食马铃薯高通量分级分选过程中,高像素图像目标识别准确率低的问题,提出一种基于改进Faster R-CNN的商品马铃薯发芽与表面损伤检测方法。以Faster R-CNN为基础网络,将Faster R-CNN中的特征提取网络替换为残差网络ResNet50,设计了一种融合ResNet50的特征图金字塔网络(FPN),增加神经网络深度。采用模型对比试验、消融试验对本文模型与改进策略的有效性进行了试验验证分析,结果表明:改进模型的马铃薯检测平均精确率为98.89%,马铃薯发芽检测平均精确率为97.52%,马铃薯表面损伤检测平均精确率为92.94%,与Faster R-CNN模型相比,改进模型在检测识别时间和内存占用量不增加的前提下,马铃薯检测精确率下降0.04个百分点,马铃薯发芽检测平均精确率提升7.79个百分点,马铃薯表面损伤检测平均精确率提升34.54个百分点。改进后的模型可以实现对在高分辨率工业相机采集高像素图像条件下,商品马铃薯发芽与表面损伤的准确识别,为商品马铃薯快速分级分等工业化生产提供了方法支撑。  相似文献   

11.
在进行禽蛋无损检测研究时,需要花费大量的人力和物力采集禽蛋图像数据,为解决该问题,设计了一种基于深度卷积生成对抗网络(Deep convolutional generative adversarial networks,DCGAN)的改进禽蛋图像数据生成网络。该网络分为生成器与判别器,生成器用于禽蛋图像数据生成,判别器对生成的禽蛋图像进行真实性判断,两者相互对抗最终生成高质量的禽蛋图像数据。为了提高生成的禽蛋图像质量,使用残差网络构建生成器和判别器,引入Wasserstein距离和加梯度惩罚的损失函数,分别在透射和反射情况下对禽蛋图像进行生成研究。该方法有效地解决了大量禽蛋图像数据的采集问题,为后期禽蛋图像识别与检测提供了数据基础,同时也为后续禽蛋数据库构建提供了技术支持。  相似文献   

12.
禽蛋基本特性参数分析与试验   总被引:3,自引:1,他引:2  
为了探讨与禽蛋大小头自动定向排列机理相关的基本特征参数分布和估算模型,测定了禽蛋的几何尺寸、质心位置、体积和质量,研究了禽蛋几何尺寸与体积、质量的关系。结果表明,禽蛋的几何尺寸和质量都呈正态分布;禽蛋质心位于禽蛋长径中点处,相对于长径与短径交点向小头侧偏移3~5 mm,质心位置称重法优于支撑法;用标准椭球体体积计算方法估算的3种禽蛋体积与实测体积相关性均在0.94以上;禽蛋质量与禽蛋估算体积的相关性优于与长径、短径、蛋形指数、禽蛋长径处椭圆面积的三元和一元线性回归,3种禽蛋质量模型的相关系数均在0.95以上。  相似文献   

13.
破损鸡蛋导致的漏液会污染自动化生产线和完好鸡蛋,不仅影响生产效率,还会干扰裂纹鸡蛋的检测.为实现破损鸡蛋快速、准确、低成本的识别,本文利用机器视觉技术,并结合深度学习网络深层次特征提取、高精度检测分类的特性,提出一种基于YOLOv4网络的破损鸡蛋检测方法.构建破损鸡蛋图像数据集,搭建YOLOv4深度学习网络,训练含有破...  相似文献   

14.
基于计算机视觉的鸡蛋裂纹检测方法研究   总被引:1,自引:0,他引:1  
为了提高鸡蛋壳裂纹检测的准确性和效率,综合应用了计算机视觉技术,实现对鸡蛋表面裂纹的检测。在利用计算机视觉系统获取鸡蛋表面图像后,采用同态滤波、BET算法、fisher等改进型图像处理技术,提取裂纹特征并判决。试验结果表明,模型对裂纹鸡蛋的识别准确率达到了98%。  相似文献   

15.
针对缺陷鸡蛋差异性大、人工检测主观性强、实时性差,消费者存在食品安全隐患等问题,提出一种基于深度学习的移动端缺陷蛋无损检测系统,实现对裂纹蛋和血斑蛋的实时检测。首先,建立改进的轻量级卷积神经网络MobileNetV2_CA模型,以MobileNetV2原网络为基础,通过嵌入坐标注意力机制、调整宽度因子、迁移学习等操作对其进行优化,并进行PC端检测对比试验。试验结果表明:建立的MobileNetV2_CA模型验证集准确率达93.93%,召回率为94.73%,单个鸡蛋平均检测时间为9.9 ms,对比改进前MobileNetV2模型准确率提升3.60个百分点、召回率提升4.30个百分点、检测时间缩短2.62 ms; MobileNetV2_CA模型的参数量为2.36×106,较原MobileNetV2网络模型降低31.59%。然后,利用NCNN深度学习框架对MobileNetV2_CA模型进行训练,并通过格式转换部署至Android移动端,进行NCNN深度学习训练模型的移动端检测验证,及其与TensorFlow Lite深度学习模型的对比分析。试验结果表明:NCNN深度...  相似文献   

16.
蛋鸭行为模式是判断笼养鸭养殖过程中健康状况及福利状态的重要指标,为了通过机器视觉实现识别蛋鸭多行为模式,提出了一种基于改进YOLO v4 (You only look once)的目标检测算法,不同的行为模式为蛋鸭的养殖管理方案提供依据。本文算法通过更换主干特征提取网络MobileNetV2,利用深度可分离卷积模块,在提升检测精度的同时降低模型参数量,有效提升检测速度。在预测输出部分引入无参数的注意力机制SimAM模块,进一步提升模型检测精度。通过使用本文算法对笼养蛋鸭行为验证集进行了检测,优化后模型平均精度均值达到96.97%,图像处理帧率为49.28 f/s,相比于原始网络模型,平均精度均值及处理速度分别提升5.03%和88.24%。与常用目标检测网络进行效果对比,改进YOLO v4网络相较于Faster R-CNN、YOLO v5、YOLOX的检测平均精度均值分别提升12.07%、30.6%及2.43%。将本文提出的改进YOLO v4网络进行试验研究,试验结果表明本文算法可以准确地对不同时段的笼养蛋鸭行为进行记录,根据蛋鸭表现出的不同行为模式来帮助识别蛋鸭的异常情况,如部分行为发...  相似文献   

17.
刘慧  张礼帅  沈跃  张健  吴边 《农业机械学报》2019,50(4):29-35,101
农田障碍物的精确识别是无人农业车辆必不可少的关键技术之一。针对果园环境复杂难以准确检测出障碍物信息的问题,提出了一种改进单次多重检测器(Single shot multibox detector,SSD)深度学习目标检测方法,对田间障碍物中的行人进行识别。使用轻量化网络MobileNetV2作为SSD模型中的基础网络,以减少提取图像特征过程中所花费的时间及运算量,辅助网络层以反向残差结构结合空洞卷积作为基础结构进行位置预测,在综合多尺度特征的同时避免下采样操作带来的信息损失,基于Tensorflow深度学习框架,在卡耐基梅隆大学国家机器人工程中心的果园行人检测开放数据集上进行不同运动状态(运动、静止)、不同姿态(正常、非正常)和不同目标面积(大、中、小)的田间行人识别精度和识别速度的对比试验。试验表明,当IOU阀值为0. 4时,改进的SSD模型田间行人检测模型的平均准确率和召回率分别达到了97. 46%和91. 65%,高于改进前SSD模型的96. 87%和88. 51%,并且参数量减少至原来的1/7,检测速度提高了187. 5%,检测速度为62. 50帧/s,模型具有较好的鲁棒性,可以较好地实现田间环境下行人的检测,为无人农机的避障决策提供依据。  相似文献   

18.
基于YOLOv4的猪只饮食行为检测方法   总被引:7,自引:0,他引:7  
针对猪舍环境下猪只饮食行为自动化检测程度较低的问题,提出了一种基于YOLOv4的猪只饮食行为检测模型。基于多时间段、多视角和不同程度遮挡的猪只饮食图像,建立了猪只饮食行为图像数据库,利用YOLOv4深度学习网络的深层次特征提取、高精度检测分类特性,对猪只饮食行为进行检测。结果表明,基于YOLOv4的猪只饮食行为检测模型在不同视角、不同遮挡程度以及不同光照下均能准确预测猪只的饮食行为,在测试集中平均检测精度(m AP)达到95.5%,分别高于YOLOv3、Tiny-YOLOv4模型2.8、3.6个百分点,比Faster R-CNN模型高1.5个百分点,比Retina Net、SSD模型高5.9、5个百分点。本文方法可为智能养猪与科学管理提供技术支撑。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号