首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 46 毫秒
1.
为了提高奶牛乳房炎的检测精度,利用热红外图像测量奶牛关键部位温度,提出了一种奶牛眼睛和乳房自动定位算法。首先对奶牛热红外图像的灰度直方图进行分析,然后提取阈值分割后图像中的HSV(Hue,Saturation,Value)颜色特征和骨架特征,并基于HSV自动检测奶牛眼睛位置,计算骨架特征向量,用支持向量机(Support vector machine,SVM)分类技术自动检测奶牛乳房位置。为了验证定位算法的有效性,对随机选取的40头自然行走的奶牛进行试验验证,结果表明,本文提出的定位算法可以有效定位奶牛眼睛、乳房位置,其定位误差在20像素以内的视频帧识别精度为68. 67%。根据定位算法所获取的奶牛眼睛和乳房的温度差值进行奶牛乳房炎检测试验,通过温度阈值对奶牛乳房炎发病程度进行评级,并与体细胞计数法(Somatic cell count,SCC)检测结果进行对比,结果表明,等级1检测准确率为33. 3%,等级2检测准确率为87. 5%。本文研究结果能较准确获取奶牛自然行走状况下眼睛和乳房的位置和温度。  相似文献   

2.
为提高奶牛体尺测量的效率与精度,降低劳动强度,提出一种基于关键帧提取与头颈部去除的奶牛体尺测量方法。首先,搭建奶牛俯视深度视频采集平台,利用分水岭算法提取深度图像中的奶牛目标;其次,使用图像扫描策略获取奶牛左右两侧轮廓,利用基于霍夫变换的直线检测方法,提取图像序列中含有完整奶牛躯干的关键帧;然后,根据奶牛头部区域骨架特征判定头部是否存在,若头部存在,则基于凸包分析方法去除图像中奶牛头部,并利用多项式曲线拟合方法去除奶牛颈部;最后,根据奶牛体尺测点的空间特征,自动计算奶牛体直长、肩宽、腹宽、臀宽及体高。利用35头奶牛的2.163帧深度图像对本文方法精度进行测试,结果分析表明,关键帧提取方法准确率为97.36%,可有效代替人工进行关键帧的选取;头部检测方法准确率为94.04%,提高了奶牛体尺测点定位的效率;体尺测量平均相对误差在3.3%以内。本文研究成果可提高奶牛体尺自动测量的效率与精度。  相似文献   

3.
为研究规模化生猪养殖场中蓝耳病疫情预警监测方法,提出一种非接触式耳部颜色自动检测方法。该方法将生猪热红外图像和可见光图像相结合寻找最优尺度因子,确定可见光图像中生猪耳根部特征区域;采用主动形状模型方法,选取34个生猪耳部轮廓特征点,并将搜索范围限定在生猪头部区域,用以提取生猪耳部轮廓;将提取的耳部轮廓进行颜色对比,判断该生猪是否患有蓝耳病疫情。结果表明,由于限定生猪头部区域搜索范围,能快速准确地提取生猪耳部轮廓。对生猪耳部颜色检测准确率达到77%以上。  相似文献   

4.
基于骨架扫描策略的生猪耳根体表温度FDSST检测方法   总被引:1,自引:0,他引:1  
为了实现生猪耳根体表温度自动检测,减少快速判别尺寸空间跟踪(Fast discriminative scale space tracking, FDSST)方法在热红外视频中进行头部跟踪产生的误差,提出了一种利用骨架扫描策略改进FDSST的生猪耳根体表温度检测方法。首先对视频的初始帧进行预处理,提取精简后的生猪整体骨架;其次,设计骨架扫描策略,扫描头部骨架前端关键点,实现头部在初始帧的定位;再次,采用FDSST跟踪生猪头部,每连续跟踪N帧后,采用骨架扫描策略重新定位头部,减少跟踪框漂移;最后提出耳根体表温度提取方法,根据头部左右耳侧温度分布,提取耳根温度并误差校正。利用采集到的30只生猪的视频数据,在Matlab平台上进行了测试,并与FDSST算法、压缩感知跟踪和核相关滤波跟踪等高效算法对比分析。结果表明,本文方法的跟踪平均精确度分别提高了7.82、11.82、8.78个百分点,提取的耳根最大温度误差为0.32℃。  相似文献   

5.
基于红外热成像的生猪耳温自动提取算法   总被引:2,自引:0,他引:2  
针对利用红外热成像进行生猪体温自动提取困难的问题,在设施猪场生猪体温红外巡检装置的基础上,提出将生猪耳部区域作为其体温的代表区域,探索一种基于红外热像图的生猪耳温自动提取算法(IT-PETE)。该算法通过高效而准确地识别生猪耳部区域并提取耳部区域的温度最大值和平均值,实现生猪体温非接触式自动监测。IT-PETE算法首先用拉普拉斯算子对生猪热红外图像进行预处理,然后基于YOLO v4和形态学对热红外图像中的生猪耳部进行提取,并结合耳部分割图像和温度矩阵自动获取耳部区域温度的最大值和平均值。采用5折交叉验证方法训练生猪耳部区域检测模型,训练集和验证集图像共2000幅,测试集400幅。试验表明,YOLO v4耳部区域检测准确率为97.6%,比Faster R-CNN和SSD分别提高了2.0个百分点和7.8个百分点,单帧图像的平均检测时间为12ms。同时对20头猪的人工统计耳温数据与算法提取体温进行相关性分析,得到两者在耳部区域温度最大值和平均值的决定系数分别为0.9849和0.9119,表明IT-PETE算法对体温数据的提取具有可靠性和可行性。因此,IT-PETE算法在一定程度上可为生猪体温自动化监测和预警系统提供技术支撑。  相似文献   

6.
为进一步提高驾驶人眼睛状态检测对环境、头部姿态的适应性和鲁棒性,提出一种基于主动红外成像和双目立体视觉技术的眼睛定位和特征提取的方法。对采集的3名驾驶人脸部红外图像平滑处理算法、阈值分割算法进行了对比研究,得出适于驾驶人眼睛状态检测的实时算法。在驾驶人脸部区域定位的基础上,采用连通区域标记法对眼睛区域进行精确定位,通过最小二乘椭圆拟合算法获取瞳孔位置,使用Harris角点检测获取普尔钦光斑位置。研究表明:该方法能有效对驾驶人眼睛进行定位,并准确提取相关特征信息。  相似文献   

7.
针对采用机器视觉技术检测奶牛跛行过程中不易准确、自动定位牛蹄位置的问题,提出一种奶牛牛蹄定位方法。通过对可见光视频中奶牛图像预处理,提取牛蹄二值化图像,研究奶牛行走时空特性,分析牛蹄在图像中的时空变化,提出一种时空差值算法,计算连通域最低点坐标,实现对奶牛牛蹄着地位置准确定位;通过分析奶牛行走时牛蹄的运动顺序,对同侧牛蹄位置数据进行提取分类,用于轨迹提取,检测跛行。进行了牛蹄定位试验和跛行检测试验,结果表明,牛蹄定位准确,阈值为20像素时精度达到73. 8%,着地位置平均误差达到11. 3像素;奶牛跛行检测准确率为93. 3%,跛行分类准确率为77. 8%。研究结果能较准确定位奶牛自然行走状况下牛蹄位置,可实现奶牛跛行的自动检测。  相似文献   

8.
针对当前生猪规模化养殖过程中基于热红外技术的生猪体温测量效率低的问题,提出了一种基于改进YOLO v7的生猪群体体温检测方法。改进YOLO v7算法在Head层引入VoV-GSCSP结构,降低网络结构复杂度;使用内容感知特征重组(Content-aware reassembly of features,CARAFE)替换模型原始上采样算子,提高特征图放大后的品质,强化生猪头部区域有效特征;引入感受野增强模块(Receptive field enhancement module,RFE),增强特征金字塔对生猪头部特征的提取能力。本文改进YOLO v7算法对于生猪头部的检测精确率为87.9%,召回率为92.5%,平均精度均值(Mean average precision,mAP)为94.7%。与原始YOLO v7相比,精确率提高3.6个百分点,召回率提高7.0个百分点,mAP提高3.6个百分点。该方法首先自动检测生猪头部区域,再利用头部最大温度与耳根温度的高相关性,最终自动获取生猪体温。温度提取平均绝对误差仅为0.16℃,检测速度为222f/s,实现了生猪群体体温的实时精准检测。综合上述试验结果表明,该方法能够自动定位生猪群体的头部区域,满足生猪群体体温测定的高效和高精度要求,为群养生猪体温自动检测提供了有效的技术支撑。  相似文献   

9.
基于部分亲和场的行走奶牛骨架提取模型   总被引:3,自引:0,他引:3  
在奶牛关键点预测的基础上,通过点、线重构奶牛骨架结构,可为奶牛跛行检测、发情行为分析、运动量估测等提供重要参考。本研究基于部分亲和场,以养殖场监控摄像头拍摄的视频为原始数据,使用1 600幅图像训练了奶牛骨架提取模型,实现了奶牛站立、行走状态下关键点信息和部分亲和场信息的预测,并通过最优匹配连接对奶牛骨架结构进行准确提取。为了验证该模型的性能,采用包含干扰因素的100幅单目标奶牛和100幅双目标奶牛图像进行了测试。结果表明,该模型对单目标行走奶牛骨架提取的置信度为78.90%,双目标行走奶牛骨架提取的置信度较单目标下降了10.96个百分点。计算了不同关键点相似性(Object keypoint similarity,OKS)下的模型准确率,当OKS为0.75时,骨架提取准确率为93.40%,召回率为94.20%,说明该模型具有较高的准确率。该方法可以提取视频中奶牛骨架,在无遮挡时具有高置信度和低漏检率,当遮挡严重时置信度有所下降。该模型的单目标和双目标图像帧处理速度分别为3.30、3.20 f/s,基本相同。本研究可为多目标奶牛骨架提取提供参考。  相似文献   

10.
奶牛身体部位的精准分割广泛应用于奶牛体况评分、姿态检测、行为分析及体尺测量等领域。受奶牛表面污渍和遮挡等因素的影响,现有奶牛部位精准分割方法实用性较差。本研究在YOLO v8n-seg模型的基础上,加入多尺度融合模块与双向跨尺度加权特征金字塔结构,提出了YOLO v8n-seg-FCA-BiFPN奶牛身体部位分割模型。其中,多尺度融合模块使模型更好地提取小目标几何特征信息,双向跨尺度加权特征金字塔结构实现了更高层次的特征融合。首先在奶牛运动通道处采集奶牛侧面图像作为数据集,为保证数据集质量,采用结构相似性算法剔除相似图像,共得到1452幅图像。然后对目标奶牛的前肢、后肢、乳房、尾部、腹部、头部、颈部和躯干8个部位进行标注并输入模型训练。测试结果表明,模型精确率为96.6%,召回率为94.6%,平均精度均值为97.1%,参数量为3.3×106,检测速度为6.2f/s。各部位精确率在90.3%~98.2%之间,平均精度均值为96.3%。与原始YOLO v8n-seg相比,YOLO v8n-seg-FCA-BiFPN的精确率提高3.2个百分点,召回率提高2.6个百分点,平均精度均值提高3.1个百分点,改进后的模型在参数量基本保持不变的情况下具有更强的鲁棒性。遮挡情况下该模型检测结果表明,精确率为93.8%,召回率为91.67%,平均精度均值为93.15%。结果表明,YOLO v8n-seg-FCA-BiFPN网络可以准确、快速地实现奶牛身体部位精准分割。  相似文献   

11.
养殖场中肉牛较为活跃,采集得到的图像数据中肉牛姿态多变,肉牛姿态端正帧较少,导致自动测量肉牛体尺困难。针对以上问题,本研究通过分析肉牛骨架特征和肉牛图像边缘轮廓特征,提出一种多姿态肉牛体尺自动测量方法。首先,利用深度相机Azure Kinect DK从正上方采集肉牛俯视深度视频数据,对视频数据进行分帧处理;其次,对原始深度图像进行预处理,将肉牛从复杂的背景中提取出来;再次,利用Zhang-Suen算法提取目标图像肉牛骨架,检测骨架交点和端点,分析肉牛头部特征,并确定头部去除点,去除图像中肉牛头部信息;最后,利用改进的U弦长曲率算法提取肉牛轮廓曲率曲线,根据曲率值确定体尺测点,将体尺测点转换到三维空间中,计算体尺参数。本研究通过分析大量深度图像数据,将图像中肉牛姿态分为左歪、右歪、姿态端正、低头和抬头五类。试验结果表明,本研究提出的基于骨架的多姿态肉牛头部去除方法在5种姿态下的头部去除成功率均高于92%;在23头肉牛不同姿态共46帧深度图像中,利用基于改进U弦长曲率的体尺测点提取方法,测得体直长测量的平均绝对误差为2.73 cm,体高测量的平均绝对误差为2.07 cm,腹宽测量的平均绝对误差为1.47 cm。研究结果可为精确测量多姿态下肉牛体尺提供支撑。  相似文献   

12.
针对人工测量、统计作物茎秆显微切片图像中维管束数目、面积等关键参数主观性强、费时费力、效率低的问题,提出一种基于图像处理的水稻茎秆截面参数自动检测方法。首先构建了一个基于改进Mask R-CNN网络的水稻茎秆切片图像分割模型。网络以MobilenetV2和残差特征增强及自适应空间融合的特征金字塔网络为特征提取网络,同时引入PointRend增强模块,并将网络回归损失函数优化为IoU函数,最优模型的F1值为91.21%,平均精确率为94.37%,召回率为88.25%,平均交并比为90.80%,单幅图像平均检测耗时0.50 s,实现了水稻茎秆切片图像中大、小维管束区域的定位、检测和分割;通过边缘检测、形态学处理及轮廓提取,实现茎秆截面轮廓的分割提取。本文方法可实现对水稻茎秆截面面积、截面直径,大、小维管束面积,大、小维管束数量等6个参数的自动检测,检测平均相对误差不超过4.6%,可用于水稻茎秆微观结构的高通量观测。  相似文献   

13.
为了解决生猪在运动过程中目标检测与跟踪误差较大的问题,提出了一种基于骨架扫描策略的生猪头部及躯干目标检测与跟踪方法。首先,检测热红外视频中生猪的通道区域,去除复杂背景的干扰;其次,对通道区域进行预处理,提取生猪的整体骨架;再次,设计图像行列扫描策略,扫描骨架前端关键点,提取头部位置;最后,根据头部与身体的空间关系,检测躯干跟踪框的位置,同步实现头部和躯干的目标跟踪。利用采集到的50只生猪的视频数据,在Matlab R~2014a平台上进行了测试,并与压缩感知跟踪、核相关滤波跟踪和快速判别尺寸空间跟踪等高效算法进行对比分析。结果表明,本文算法的平均跟踪帧速为31. 63 f/s,平均跟踪精确度为0. 675 2(阈值为20像素),分别比压缩感知跟踪、核相关滤波跟踪和快速判别尺寸空间跟踪算法高9. 41、7. 09、2. 72个百分点。  相似文献   

14.
为解决通过人工及温度阈值分割评估蛋鸡羽毛覆盖度准确度不够的问题,提出基于热红外图像和彩色图像计算羽毛覆盖度的方法。利用Otsu算法结合不同的颜色模型提取鸡体目标及背部羽毛覆盖完好区域,通过计算面积比值,获取背部羽毛覆盖度。针对热红外图像目标鸡体边缘模糊导致分割效果较差的问题,提出基于分量R、B灰度直方图的自适应性热红外图像增强方法,该方法突出了前景与背景的差异,增强了边缘的清晰度。实验结果表明,热红外图像鸡体目标及羽毛覆盖完好区域的分割准确度达到97.18%和96.86%,彩色图像分割准确度达到99.58%和97.86%。对于羽毛覆盖度,热红外图像的计算结果接近羽毛覆盖度真实值。对同一批蛋鸡计算羽毛覆盖度,热红外图像比彩色图像的计算结果最少时高2.01个百分点,最大时高30.29个百分点。通过分析原因,发现蛋鸡剐蹭鸡笼等行为露出的白色羽毛根部,是彩色图像计算覆盖度结果出现偏差的主要因素。羽毛覆盖度会影响鸡体体表温度。通过实验发现,鸡体羽毛覆盖度与体表温度呈极显著负相关(P<0.01),依据羽毛覆盖度对蛋鸡进行分级,对比相同级别、不同区域的蛋鸡体表温度,发现相同级别的羽毛严重损伤区域平均温度比背部平均温度高10℃以上,对比相同区域、不同级别的蛋鸡体表温度,发现背部平均温度最高相差3.89℃,损伤区域平均温度最高相差5.36℃。  相似文献   

15.
基于热红外遥感影像的作物冠层温度提取   总被引:1,自引:0,他引:1  
热红外影像较难直接提取作物冠层区域,因而无法获得较精准的作物冠层温度。本文以拔节期的玉米为研究对象,利用六旋翼无人机搭载热红外成像仪和大疆精灵四Pro无人机,获得热红外影像及正射影像。基于高分辨率正射影像,采用改进的Canny边缘检测算子、支持向量机(Support vector machine,SVM)和小波变换3种方法提取玉米冠层区域,将提取结果进行二值化处理后,在热红外影像中以此生成掩膜并提取玉米冠层温度。应用提取的矢量面分析提取效果并对3种提取算法的精度进行评价。实验结果表明,改进的Canny边缘检测算子提取效果最优、SVM算法次之、小波变换最差,提取精度分别为87. 3%、74. 5%、68. 2%。同时,将手持测温仪测得的玉米冠层温度与提取的冠层温度进行误差分析,结果表明,基于改进的Canny边缘检测算子提取的玉米冠层温度与地面实测值相关性最高,决定系数R~2=0. 929 5,SVM算法决定系数R~2=0. 895 7,小波变换决定系数R2=0. 876 0。改进的Canny边缘检测算子能够更好地提取玉米冠层区域,获取更加精确的玉米冠层温度,从而能够更有效地监测玉米生理状况,进行旱情预测,制定合理的灌溉、施肥措施以提高玉米产量。  相似文献   

16.
基于热红外视频的生猪体温检测过程中,视频中保育期生猪头部姿态变化大,且耳根区域小,导致头部和耳根区域定位精度低,影响生猪耳根温度的精准检测。针对以上问题,本文提出了一种基于改进YOLO v4(Mish Dense YOLO v4,MD-YOLO v4)的生猪耳根温度检测方法,构建了生猪关键部位检测模型。首先,在CSPDarknet-53主干网络中,添加密集连接块,以优化特征转移和重用,并将空间金字塔池化(Spatial pyramid pooling, SPP)模块集成到主干网络,进一步增加主干网络感受野;其次,在颈部引入改进的路径聚合网络(Path aggregation network, PANet),缩短多尺度特征金字塔图的高、低融合路径;最后,网络的主干和颈部使用Mish激活函数,进一步提升该方法的检测精度。试验结果表明,该模型对生猪关键部位检测的mAP为95.71%,分别比YOLO v5和YOLO v4高5.39个百分点和6.43个百分点,检测速度为60.21 f/s,可满足实时检测的需求;本文方法对热红外视频中生猪左、右耳根温度提取的平均绝对误差分别为0.26℃和0.21℃...  相似文献   

17.
基于机器学习的奶牛深度图像身体区域精细分割方法   总被引:1,自引:0,他引:1  
奶牛目标各区域的精细分割和识别能够提供精确的奶牛形体细节信息,是奶牛体形评价、姿态检测、行为分析和理解的前提和基础。为实现深度图像中奶牛头、颈、躯干和四肢等身体区域的精确分割,提出一种基于深度图像特征和机器学习的奶牛目标各区域精细分割方法。该方法以每个像素点在不同采样半径下的带阈值LBP序列为深度特征值,设置分类约束条件,用决策树森林机器学习方法实现奶牛各区域的精细分类。对10头奶牛的288幅侧视深度图像进行试验,结果表明,当采样半径分段数为30,决策树训练至20层时,奶牛整体各像素点的平均识别率为95.15%,较传统深度图像特征值有更强的细节信息提取能力,可以用较少参数实现对复杂结构的精确识别。  相似文献   

18.
本文介绍了一种基于红外光源得到的明暗瞳孔图像做差的人眼检测及跟踪方法,应用于疲劳驾驶检测系统。利用DSP芯片来控制红外光源,获取实时图像。采用差分图像进行人眼瞳孔图像的定位检测,利用卡尔曼滤波法跟踪人眼,以适时检测眼睛的开闭状态。该方法具有准确、快速、全天候且对驾驶员无干扰等优点。  相似文献   

19.
针对农作物禾苗和杂草辨识和定位不精确,会造成除草机器人除草不净、伤害禾苗、影响产量等问题,提出了一种基于骨架提取算法的作物茎秆中心识别与定位的多级图像识别方法。该方法通过不同图像处理算法的多级式递进融合,实现对农作物茎秆的精确识别与中心定位。首先将采集到的彩色图像转换到HSV颜色空间进行背景分割。然后采用腐蚀算法对图像进行腐蚀操作,腐蚀掉杂草图像信息得到仅含作物的图像信息,最后用Zhang-Suen细化算法对作物图像进行骨架提取操作,并对骨架交叉点进行计算分析,识别与定位作物茎秆中心,实现作物精准辨识和定位。对采集的100幅苗期图像进行实验测试,结果表明农作物禾苗茎秆中心识别和定位精度误差小于12mm。本文方法能实时精准辨识禾苗和杂草,并对禾苗进行精准定位,为实现田间机械化除草提供了一种精准可靠的作物识别和定位方法。  相似文献   

20.
为实现大规模养殖场内奶牛目标的自动提取,将相关滤波算法融入目标提取基本框架,提出一种相关滤波融合边缘检测的奶牛目标提取(Correlation filtering-edge detection based target extraction, CFED)算法。首先利用颜色名(Color names, CN)、方向梯度直方图 (Histogram of oriented gradient, HOG)设计的相关滤波器获取奶牛目标范围;再利用13个不同方向的边缘滤波模板卷积目标范围图像得到图像边缘,最后融合边缘信息和颜色特征提取出奶牛目标。对奶牛场不同环境下的9段视频进行目标提取试验,结果表明,算法提取的目标与真实结果平均重叠率达到92.93%,较Otsu、K-means聚类、帧间差分法和高斯混合模型(Gaussian mixture model,GMM)分别高35.63、32.84、20.28、14.35个百分点;平均假阳性率和假阴性率分别为5.07%和5.08%,处理每帧图像平均耗时0.70s。该结果表明,提出的CFED算法具有较好的目标检测能力,为奶牛目标准确快速提取提供了一个有效方法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号