首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 156 毫秒
1.
张勤  陈少杰  李彬 《农业工程学报》2015,31(20):165-171
中国南方水田环境复杂,不同生长阶段秧苗的形态各异,且田中常出现浮萍及蓝藻,其颜色与秧苗颜色极其相似,因此常用的作物特征提取算法难以应用在水田上。针对这些问题,该文提出一种基于SUSAN角点的秧苗列中心线方法。运用归一化的Ex G(excess green index)提取秧苗的灰度化特征,运用自适应的SUSAN(smallest univalue segment assimilating nucleus)算子提取秧苗特征角点;最后运用扫描窗口近邻法进行聚类,采用基于已知点的Hough变换(known point Hough transform)提取秧苗列中心线。经试验验证,此算法在图像中存在浮萍、蓝藻和秧苗倒影的情况下有较高的鲁棒性。在各种情况下均成功提取秧苗的列中心线,且每幅真彩色图像(分辨率:1280×960)处理时间不超过563 ms,满足视觉导航的实时性要求。  相似文献   

2.
为提高水稻苗带中心线检测的适应性和实时性,满足巡田机器人导航的低成本、轻量级计算、高实时性需求,针对水稻苗带中心线检测结果容易受到光照变化和机器震动等原因产生图像噪声影响的问题,该研究以返青期和分蘖初期水稻秧苗为研究对象,提出基于区域生长顺序聚类-随机抽样一致性算法(random sample consensus,RANSAC)的水稻苗带中心线检测方法。首先,对采集的水稻秧苗图像运用归一化超绿特征法(excess green,ExG)和最大类间方差法(Otsu)分割水田背景和秧苗区域,应用先腐蚀后开运算的形态学方法去除秧苗图像噪声点;然后,采用基于水平带的秧苗轮廓质心检测方法提取秧苗特征点,利用区域生长顺序聚类方法将同一秧苗行的特征点聚成一类;最后,通过RANSAC算法拟合苗带中心线,从而得到巡田机器人视觉导航基准线。试验结果表明:该方法对返青期和分蘖初期水稻苗带中心线检测率均在97%以上,比已有YOLOv3算法提高6.12个百分点,比基于区域生长均值漂移聚类算法降低2.41个百分点;平均误差角度为2.34°,比已有YOLOv3算法高1.37°,比基于区域生长均值漂移聚类算法低0.12...  相似文献   

3.
基于图像特征点粒子群聚类算法的麦田作物行检测   总被引:8,自引:8,他引:0  
为了快速准确地提取麦田作物行中心线,提出了基于图像特征点粒子群聚类算法的麦田作物行检测。首先,对自然光照下获取的彩色图像运用"过绿颜色因子图像灰度化"、"Otsu图像二值化"、"左右边缘中间线检测提取作物行特征点算法"3步对图像进行预处理。然后,根据农田作物行中心线周围区域的特征点到该直线的距离均小于某一距离阈值的特征,运用粒子群优化算法对每一作物行的特征点分别进行聚类。最后,对每一类的特征点用最小二乘法进行直线拟合获取麦田作物行中心线。试验结果表明,该算法可以对作物断行、杂草、土块等复杂农田环境下的图像进行有效地作物行检测,识别率达95%,识别误差小于3°。与标准Hough算法相比,运行速率提升了一倍。该文可为实现农业机器人田间作业提供参考。  相似文献   

4.
为了解决猪胴体背膘厚度在人工测量中准确率、效率低以及存在对样本造成污染的问题,该文基于计算机视觉和图像处理技术提出一种检测背膘厚度的算法。算法主要分成背膘部分检测和测量部位的直线检测。前者通过图像分割、特征点的检测以及漫水填充等方法实现,能准确提取猪胴体背膘部分。后者在图像预处理后,首先通过感兴趣区域(region of interest,ROI)提取猪胴体肋排区域;然后利用设定好的浮动窗口进行全幅图像的扫描,通过平滑后的平均灰度线特征提取肋骨的目标像素点;最后,基于近邻法利用目标像素点间的邻近关系对其进行聚类,找到胴体第6、7根肋骨,并采用基于已知点的Hough变换提取测量直线,将测量部位的直线映射到背膘部分,则可实现对猪胴体背膘厚度准确测量。试验结果表明,在对背膘厚度测量误差小于2 mm时,检测准确率可达92.31%,该文提出的方法能对猪胴体背膘厚度的测量位置进行准确定位和测量。  相似文献   

5.
针对传统作物行识别方法在相邻图像间的识别结果偏差较大,作物行的定位精度和稳定性低等问题,该研究提出一种基于双目视觉和自适应Kalman滤波技术的作物行识别与跟踪方法。对于作物行识别,首先建立图像预处理算法,基于改进的超绿-超红模型和最大类间方差法分割植被灰度特征;建立作物行特征提取算法,基于特征点检测技术和双目视差测距方法计算植被角点特征的三维坐标,根据三维阈值提取作物行特征点,进而建立作物行中心线检测算法,建立基于主成分分析的直线拟合模型,根据作物行特征点的频数统计规律检测作物行冠层中心线。对于作物行跟踪,建立跟踪目标规划模型,提取位于图像中央区域的作物行作为跟踪目标;建立目标状态方程,基于自适应Kalman滤波技术构建作物行中心线跟踪模型。以棉花图像开展试验研究,图像数据包括阴影、杂草、地头等田间场景。试验结果表明,该研究方法的作物行识别准确度、精度和速度均较高,识别正确率约为92.36%,平均航向偏差为0.31°、标准差为2.55°,平均识别速度约80.25 ms/帧;经目标跟踪后,航向角和横向位置估计的标准差分别为2.62°和0.043 m、较无跟踪状态分别减小22.94%和10.42%,作物行中心线的方位估计精度进一步提高。研究成果可为导航系统提供连续、稳定的作物行导引参数。  相似文献   

6.
基于K-means和近邻回归算法的Kinect植株深度图像修复   总被引:6,自引:3,他引:3  
沈跃  徐慧  刘慧  李宁 《农业工程学报》2016,32(19):188-194
针对Kinect传感器应用于农业植株检测产生的图像噪声问题,特别是由光线以及传感器自身局限导致的匹配图像目标植株数据的缺失,提出一种基于K-means和近邻回归算法的植株深度检测图像修复方法。首先对Kinect传感器获取的彩色RGB图像进行阈值分割预处理提取植株目标区域,再利用K-means聚类算法去除背景噪声,使得植株目标区域轮廓更加清晰;然后基于配准的彩色图像和深度图像,对获取的深度图像中可疑像素点的深度数据采取近邻回归算法进行修复,再将修复后的深度图像与目标分割后的彩色图像进行植株区域的匹配,并进行二次近邻回归算法修正错误的深度数据,最后获取目标植株深度信息的检测图像。试验结果证明,采用RGB阈值分割和K-means聚类算法植株目标区域分割误差均值为12.33%,比单一RGB阈值分割和K-means聚类分割误差降低了12.12和41.48个百分点;同时结合聚类后的彩色图像对深度数据进行两次近邻回归算法修复深度数据,能够提高深度数据边缘的清晰度,单帧深度数据空洞点进行修复数据的准确度提高。该研究结果可为农业植株检测、植株三维重构、精准对靶喷雾等提供参考。  相似文献   

7.
基于FCN的无人机玉米遥感图像垄中心线提取   总被引:1,自引:1,他引:0  
为解决农业机器人在玉米田行间行走的全局路径规划问题,该研究提出一种基于全卷积神经网络(Fully ConvolutionalNetworks,FCN)的无人机玉米遥感图像垄中心线提取方法。基于无人机获取的高精度可见光遥感图像,设计了针对农田垄中心线提取的数据集标注方法,采用滑动窗口法进行图像分块,利用深度学习语义分割网络FCN对垄中心线附近7~17像素宽度范围的垄线区域进行提取,模型在测试田块上精确率达66.1%~83.4%,召回率达51.1%~73.9%,调和平均值为57.6%~78.4%;对拼接后的图像使用影像分割投影法提取中心线,探究了垄线区域宽度对垄中心线提取精度的影响,训练采用9像素的垄区域宽度,可得到垄中心线在77 mm左右偏差范围准确率为91.2%,在31.5 mm左右偏差范围内为61.5%。结果表明,基于FCN对无人机玉米遥感图像进行处理,可得到整片田地的垄中心线栅格地图,方便农业机器人进行全局路径规划。  相似文献   

8.
玉米苗带准确检测与精准跟踪是玉米除草机器人实现自主作业的重要基础。针对玉米除草机器人苗带检测,该研究提出了基于感兴趣区域更新的玉米苗带实时识别及导航线提取方法,首先利用单目相机采集机器人前向玉米苗带,将苗带图像进行归一化和超绿处理,采用改进自适应响应阈值SUSAN(small univalue segment assimilating nucleus)角点法以及冗余离群特征点剔除法获得玉米苗特征点,以改进的顺序聚类算法对视频帧进行玉米苗带聚类处理,再利用最小二乘法拟合出各玉米苗带,最后基于机器人航向偏差和其相对玉米苗带的横向偏差实时调整感兴趣区域和更新导航线;同时,针对除草机器人苗带行线跟踪,提出以运动学为模型的PID(proportionintegrationdifferentiation)转向角决策方法,建立了导航跟踪控制模型;并在Visual Studio平台下,利用OpenCV库开发了导航控制系统。试验结果表明,玉米除草机器人导航线提取准确率为96.8%,每帧图像平均处理时间为87.39ms,具有较好的实时性和抗干扰性;在模拟环境下,玉米苗带直线和曲线跟踪平均误差≤1.42 c...  相似文献   

9.
针对基于双目视觉技术的作物行识别算法在复杂农田环境下,立体匹配精度低、图像处理速度慢等问题,该文提出了一种基于Census变换的作物行识别算法。该方法运用改进的超绿-超红方法灰度化图像,以提取绿色作物行特征;采用最小核值相似算子检测作物行特征角点,以准确描述作物行轮廓信息;运用基于Census变换的立体匹配方法计算角点对应的最优视差,并根据平行双目视觉定位原理计算角点的空间坐标;根据作物行生长高度及种植规律,通过高程及宽度阈值提取有效的作物行特征点并检测作物行数量;运用主成分分析法拟合作物行中心线。采用无干扰、阴影、杂草及地头环境下的棉田视频对算法进行对比试验。试验结果表明,对于该文算法,在非地头环境下,作物行中心线的正确识别率不小于92.58%,平均偏差角度的绝对值不大于1.166°、偏差角度的标准差不大于2.628°;图像处理时间的平均值不大于0.293 s、标准差不大于0.025 s,能够满足田间导航作业的定位精度及实时性要求。  相似文献   

10.
为解决机器视觉对早期玉米苗带在多环境变量下导航线提取耗时长、准确率低的问题,该研究提出了一种基于中值点Hough变换作物行检测的导航线提取算法。首先,改进了传统的2G-R-B算法,再结合中值滤波、最大类间方差法和形态学操作实现土壤背景与玉米苗带的分割。其次,通过均值法提取玉米苗带特征点,然后采用中值点Hough变换拟合垄间两侧玉米苗列线,最后将检测出的双侧玉米苗列线为导航基准线,利用夹角正切公式提取导航线。试验结果表明:改进的灰度化算法能够正确分割玉米苗带与土壤,处理一幅640×480像素彩色图像平均耗时小于160 ms,基于中值点Hough变换检测玉米苗列再提取导航线的最大误差为0.53°,相比于传统Hough变换时间上平均快62.9 ms,比最小二乘法平均精确度提高了7.12°,在农田早期玉米苗带多环境变量影响因素下导航线提取准确率均达92%以上,具有较强的可靠性和准确性。  相似文献   

11.
张勤  陈建敏  李彬  徐灿 《农业工程学报》2021,37(18):143-152
采摘点的识别与定位是智能采摘的关键技术,也是实现高效、适时、无损采摘的重要保证。针对复杂背景下番茄串采摘点识别定位问题,提出基于RGB-D信息融合和目标检测的番茄串采摘点识别定位方法。通过YOLOv4目标检测算法和番茄串与对应果梗的连通关系,快速识别番茄串和可采摘果梗的感兴趣区域(Region of Interest,ROI);融合RGB-D图像中的深度信息和颜色特征识别采摘点,通过深度分割算法、形态学操作、K-means聚类算法和细化算法提取果梗图像,得到采摘点的图像坐标;匹配果梗深度图和彩色图信息,得到采摘点在相机坐标系下的精确坐标;引导机器人完成采摘任务。研究和大量现场试验结果表明,该方法可在复杂近色背景下,实现番茄串采摘点识别定位,单帧图像平均识别时间为54 ms,采摘点识别成功率为93.83%,采摘点深度误差±3 mm,满足自动采摘实时性要求。  相似文献   

12.
蔬菜穴盘苗自动补苗试验台穴孔定位与缺苗检测系统   总被引:4,自引:4,他引:0  
为了精确获得蔬菜穴盘育苗空穴信息并为自动补苗提供依据,研制了蔬菜穴盘苗自动补苗试验台。利用该试验台获取了苗龄25、35 d的拟南介穴盘苗彩色图像,对彩色图像依次进行灰度化处理、Otsu阈值分割得到幼苗和穴盘二值图;对幼苗二值图进行开运算去除噪声,提取出幼苗特征图像;将穴盘二值图去除幼苗图像并去除噪声获得穴盘特征图像,依据穴盘特征图像分别在行、列上的像素统计峰值、峰宽及穴盘规格化结构,精确确定了穴孔边界;对穴孔内幼苗图像像素统计以判定是否空穴,结果表明:25、35 d拟南芥穴盘苗有苗穴孔与无苗穴孔内像素统计值差异极显著,空穴、有苗穴判断正确率均为100%,为穴盘苗空穴自动补苗提供了精确的幼苗信息与穴孔位置。  相似文献   

13.
基于机器视觉的水稻杂质及破碎籽粒在线识别方法   总被引:3,自引:5,他引:3  
陈进  顾琰  练毅  韩梦娜 《农业工程学报》2018,34(13):187-194
为了解决目前国内联合收获机缺乏针对含杂率、破碎率的在线监测装置的问题,该文提出基于机器视觉的水稻图像采集,杂质与破碎籽粒分类识别方法。采用带色彩恢复的多尺度Retinex算法增强原始图像,对HSV颜色模型的色调、饱和度两个通道分别设定阈值进行图像分割,并结合形状特征得到分类识别结果。采用综合评价指标对试验结果进行量化评价,研究表明,茎秆杂质识别的综合评价指标值达到了86.92%,细小枝梗杂质识别的综合评价指标值为85.07%,破碎籽粒识别的综合评价指标值为84.74%,平均识别一幅图像的时间为3.24 s。结果表明,所提出的算法能够快速有效识别出水稻图像中的杂质以及破碎籽粒,为水稻含杂率、破碎率的在线监测提供技术支撑。  相似文献   

14.
无人机遥感影像面向对象分类方法估算市域水稻面积   总被引:7,自引:5,他引:2  
针对如何高效地从无人机遥感影像中提取农作物样方数据,用于农作物面积遥感估算,该文以浙江省平湖市为例,利用面向对象分类方法对无人机影像进行水稻自动化识别,作为样方数据与卫星遥感全覆盖空间分布分类结果结合,采用分层联合比估计进行2014年单季晚稻面积估算。然后,与人工目视解译识别方法获取的水稻样方数据推断的区域水稻面积估算的结果进行精度、效率对比分析。研究结果表明:1)利用面向对象分类方法对无人机影像进行分类,总体分类精度达到93%以上,满足构建样本的要求;2)通过区域作物估算对比分析发现,面向对象分类方法对无人机影像进行水稻识别,构建平湖市单季晚稻的样方数据,能够替代人工目视解译样方准确推断区域作物种植面积,有效地提高了无人机影像在遥感面积估算中的应用效率。  相似文献   

15.
复杂背景下甜瓜果实分割算法   总被引:5,自引:3,他引:2  
为解决复杂背景下甜瓜果实与背景图像分割的问题,该文提出了一种融合颜色特征和纹理特征的图像分割算法。首先,把采集到的甜瓜果实图像从RGB色彩空间分别转换到CIELAB和HSV色彩空间,应用a*b*分量建立角度模型,根据甜瓜果实的颜色特点选取阈值并对图像作二值化处理;为降低光照分布不均匀对图像分割的影响,采用HSV空间的HS颜色分量对果实图像进行阈值分割。在以上2种色彩空间分割的基础上,融合角度模型分割和HS阈值分割的结果,得到基于颜色特征的分割结果。然后,再按照图像的纹理特征对图像进行分割处理,融合按照颜色特征和纹理特征的分割结果。最后,为解决分割结果中的分割误差和边缘毛刺问题,以颜色特征分割的果实区域为限定条件,对按照融合特征分割的果实区域进行约束性区域生长,得到最终的图像分割结果。为了对该文提出算法的分割效果进行检验,采用超绿阈值分割算法和归一化差异指数算法(NDI)对试验图像进行分割,3种算法的平均检出率分别为83.24%、43.12%、99.09%。对比3种分割算法的检出率和误检率,可以看出,该文提出的算法试验结果明显优于超绿阈值分割算法和归一化差异指数(NDI)分割算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号