首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 46 毫秒
1.
基于最小二乘法的早期作物行中心线检测方法   总被引:11,自引:0,他引:11  
提出了一种基于最小二乘法的早期作物行中心线检测算法.利用G-R颜色特征因子分割作物与背景.根据作物与杂草的长度属性去除部分杂草噪声,应用垂直投影法动态检测作物行数,并提取作物行中点为特征点,获得特征点图像.利用特征点间的邻近关系对特征点进行分类,对归类后的特征点进行两次最小二乘法拟合,得到作物行中心线.对于有作物缺失的作物行,采用统计条形区域内特征点数量的方法判别检测结果的可信度.实验结果表明,算法能克服杂草和作物缺失的影响,实时地提取小麦、玉米和大豆作物行,平均每幅图像处理时间小于150 ms.  相似文献   

2.
针对大田作物行特征复杂多样,传统作物行识别方法鲁棒性不足、参数调节困难等问题,该研究提出一种基于特征工程的大田作物行识别方法。以苗期棉花作物行冠层为识别对象,分析作物行冠层特点,以RGB图像和深度图像为数据来源,建立作物行冠层特征表达模型。运用特征降维方法提取作物行冠层的关键特征参数,降低运算量。基于支持向量机技术建立作物行冠层特征分割模型,提取作物行特征点。结合随机抽样一致算法和主成分分析技术建立作物行中心线检测方法。以包含不同光照、杂草、相机位姿的棉花作物行图像为测试数据,运用线性核、径向基核和多项式核的支持向量机分类器开展作物行冠层分割试验;对比分析典型Hough变换、最小二乘法和所建作物行中心线检测方法的性能。结果表明,径向基核分类器的分割精度和鲁棒性最优;所建作物行中心线检测方法的精度和速度最优,航向角偏差平均值为0.80°、标准差为0.73°;横向位置偏差平均值为0.90像素,标准差为0.76像素;中心线拟合时间平均值为55.74ms/f,标准差为4.31ms/f。研究成果可提高作物行识别模型的适应性,减少参数调节工作量,为导航系统提供准确的导航参数。  相似文献   

3.
基于改进K均值特征点聚类算法的作物行检测   总被引:1,自引:0,他引:1  
精准施药是现代精准农业发展不可或缺的一部分,而准确地提取作物行是进行精准施药的关键环节。为此,以苗期的玉米为研究对象,提出一种基于改进K均值特征点聚类算法的作物行检测方法。该方法根据距离函数最值关系求出最佳聚类数目,再依据点密度大小和邻域半径确定初始聚类中心,减少了迭代次数,提高了算法的执行效率和划分效果。首先,采用改进的超绿法(1.27G-R-B)进行灰度化和Otsu方法进行二值化,得到作物行的二值图像;然后,利用左右边缘中间线算法提取作物行特征点;最后,采用改进K均值算法和最小二乘法对作物行中心线特征点进行聚类和直线拟合。试验数据表明:提出的改进K均值特征点聚类算法识别效果好,精确度高,可为精准施药提供理论依据。  相似文献   

4.
基于分区域特征点聚类的秧苗行中心线提取   总被引:4,自引:0,他引:4  
为了准确检测水稻秧苗行中心线,提出了基于分区域特征点聚类的秧苗行中心线提取方法。采用2G-R-B特征因子和Otsu法分割秧苗和背景;通过分区域统计秧苗像素点分布提取秧苗行的候选特征点,利用特征点间近邻关系对特征点进行聚类,确定秧苗行数和各秧苗行的起始点;基于秧苗成行栽植特点引入“趋势线”,利用点到该直线的距离与距离阈值作比较,筛选出远离各行趋势线的点,并将其去除;对筛选后的每一行特征点用最小二乘法进行直线拟合,获取秧苗行中心线。实验结果表明,该算法具有较强的抗噪性能,提取秧苗行中心线的准确率达95.6%,与标准Hough变换和随机Hough变换算法相比,处理一幅分辨率为320像素×237像素的彩色图像平均耗时短,能够实现水田秧苗行中心线的准确提取,可为插秧机自主行走提供可靠的导航信息。  相似文献   

5.
基于机器视觉的果树行中心线检测算法研究   总被引:4,自引:0,他引:4  
袁池  陈军  武涛  王虎  蒋浩然 《农机化研究》2013,35(3):37-39,45
针对果树空间层次复杂造成直线检测算法失效的问题,提出了运用图像透视原理筛选边界点的方法来提取果树行边界。使用最小二乘法拟合边界直线,计算相邻果树行的中心线作为移动机器人的导航路径。试验结果表明,该算法能够快速准确地提取出果树行中心线,平均每幅图像处理时间小于600ms。  相似文献   

6.
基于RANSAC算法的植保机器人导航路径检测   总被引:2,自引:0,他引:2  
为实现植保机器人精准自主导航和提高路径检测的精度、可靠性,提出一种基于RANSAC算法的视觉导航路径检测方法。首先,采用超绿灰度化法和最大类间方差法进行图像分割;继而结合形态学操作与动态面积阈值滤波算法滤除干扰;最后,在垄行的边缘中,根据均值法提取特征点,采用RANSAC算法剔除离群点后由最小二乘法进行直线拟合,以提高导航路径的检测精度。实验表明,与Hough变换相比,本文垄行中心线检测方法具有更高的检测精度,导航路径的检测率可达93.8%,比未使用RANSAC算法提高了18.8个百分点。  相似文献   

7.
基于边缘检测与扫描滤波的农机导航基准线提取方法   总被引:2,自引:0,他引:2  
为了实时、准确地提取作物行基准线,提出了一种将边缘检测和扫描滤波(Boundary detection and scan filter, BDSF)相结合的基准线提取方法。首先对RGB颜色空间采用G-R颜色特征因子进行图像灰度化,再采用最大类间方差法(OSTU)对灰度图像进行分割,得到二值化图像,获取较好的作物信息。然后分别对图像的底端和顶端部分进行垂直投影,获取作物行的位置,形成一个包含作物行直线的条形框;在这个条形框内,再用等面积的小条形框对图像进行扫描并统计有效点的个数。最后根据扫描的结果来提取导航线。试验结果表明,对比Hough算法和最小二乘法(Least square method, LSM),BDSF算法处理一幅分辨率为640像素×480像素的图像,平均耗时为67ms,与LSM算法耗时相当,精度接近Hough算法;并且在杂草和株数稀缺情况下具有良好的适应性,能够快速准确地提取作物行基准线。  相似文献   

8.
基于YOLOv3目标检测的秧苗列中心线提取方法   总被引:3,自引:0,他引:3  
针对秧苗列中心线的检测结果易受到水田中的浮萍、蓝藻以及水面反射、风速、光照情况等自然条件影响的问题,提出一种基于YOLOv3目标检测的秧苗列中心线检测算法。基于透视投影计算提取图像的ROI(Region of interest)区域,采用ROI图像构建数据集,对YOLOv3模型进行训练,训练过程中通过减少YOLOv3模型的输出降低运算量,利用模型识别定位ROI内的秧苗,并输出其检测框,对同列秧苗的检测框进行自适应聚类。在对秧苗图像进行灰度化和滤波处理后,在同类检测框内提取秧苗SUSAN(Smallest univalue segment assimilating nucleus)角点特征,采用最小二乘法拟合秧苗列中心线。试验结果表明,该算法对于秧苗的不同生长时期,以及在大风、蓝藻、浮萍和秧苗倒影、水面强光反射、暗光线的特殊场景下均能成功提取秧苗列中心线,鲁棒性较好,模型的平均精度为91.47%,提取的水田秧苗列中心线平均角度误差为0.97°,单幅图像(分辨率640像素×480像素)在GPU下的平均处理时间为82.6 ms,能够满足视觉导航的实时性要求。为复杂环境下作物中心线的提取提供了有效技术途径。  相似文献   

9.
为可靠地检测垄行,实现植保机器人精准自主导航,提出一种基于RANSAC算法的视觉导航路径检测方法。首先采用超绿灰度化法和最大类间方差法进行图像分割;继而结合形态学操作与动态面积阈值滤波算法滤除干扰;最后在垄行的边缘中,根据均值法计算特征点,采用RANSAC算法剔除离群点后由最小二乘法直线拟合,以提高导航路径的检测精度。实验结果表明,与Hough变换相比,本文的垄行中心线检测方法具有更好的检测性能,导航路径的检测率可达93.8%。  相似文献   

10.
为了提高除草机器人自主导航能力和杂草识别率,将嵌入式Web和ZigBee技术引入到了机器人的控制系统中,设计了一种新型杂草自动识别除草机器人。除草器人利用摄像头采集导航图像,利用作物颜色特征在RGB颜色空间对图像进行分割,使用OTSU方法检测作物的中心线,以农作物行中心线为基准线进行自动行走,实现了机器人的自主导航功能。机器人利用杂草识别摄像头识别杂草,使用ARM9处理器对图像进行处理,利用ZigBee发送控制指令,最后由执行末端刀盘去除杂草。为了验证机器人杂草识别和导航性能的可靠性,对机器人的性能进行了测试,结果表明:图像计算和实际机器人测试的位姿结果非常接近,杂草的识别率在99.8%以上,算法的性能可靠,杂草识别精度高,除草机器人的实时性较好。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号