共查询到16条相似文献,搜索用时 234 毫秒
1.
2.
3.
杂草自动识别除草机器人设计——基于嵌入式Web和ZigBee网关 总被引:1,自引:0,他引:1
为了提高除草机器人自主导航能力和杂草识别率,将嵌入式Web和ZigBee技术引入到了机器人的控制系统中,设计了一种新型杂草自动识别除草机器人。除草器人利用摄像头采集导航图像,利用作物颜色特征在RGB颜色空间对图像进行分割,使用OTSU方法检测作物的中心线,以农作物行中心线为基准线进行自动行走,实现了机器人的自主导航功能。机器人利用杂草识别摄像头识别杂草,使用ARM9处理器对图像进行处理,利用ZigBee发送控制指令,最后由执行末端刀盘去除杂草。为了验证机器人杂草识别和导航性能的可靠性,对机器人的性能进行了测试,结果表明:图像计算和实际机器人测试的位姿结果非常接近,杂草的识别率在99.8%以上,算法的性能可靠,杂草识别精度高,除草机器人的实时性较好。 相似文献
4.
基于视觉的苗期作物和杂草的图像分割技术逐渐成熟,通过视觉技术对苗期作物进行精准识别和定位,是实现株间除草的关键技术和难点。作物的精准识别首先需要利用颜色特征将图像中的作物、杂草和土壤背景进行分割;其次利用实际识别对象的位置特征,形状特征,纹理特征,光谱特征等构造新的特征向量,结合成熟的分类算法对作物和杂草进行特征分类识别。针对棉苗和大豆苗,主要提取位置特征、形状特征,多采用支持向量机为主分类算法;针对玉米,主要提取位置特征、纹理特征,多采用人工神经网络为主的分类算法;针对部分蔬菜苗,主要提取形状特征、光谱特征,多采用算法结合的优化算法,具体实现时需要根据离线样本学习的结果来平衡苗期作物的识别准确率与实时性。在目前的算法中,主要存在三方面的问题:作物特征提取效果易受到遮挡、光照等干扰;分类算法目前还不能得到非常令人满意的准确性和实时性;目前算法一般是针对某种时段的作物,不具有通用性。这些都是后续算法研究中需要进一步解决的问题。 相似文献
5.
基于位置特征的穴间杂草快速识别算法 总被引:2,自引:0,他引:2
研究了利用穴播作物的位置特征进行穴间区块杂草识别的算法.针对穴播作物按规律分布生长的特点和田间场景中植物叶片交叠等问题,以穴播玉米为研究对象提出了一种基于作物位置特征的过分割区块投影定位作物株心的方法,据此确定出穴间喷雾操作区块并进行各区块像素统计、判别,实现穴间杂草的识别.试验表明:穴间区块杂草实时识别的正确率在87.7%以上, 在MATLAB6.5环境下处理一幅640×512图像,从读入图像至给出杂草控制指令耗时在500ms以内,具有较好的实时性,且可适用于作物苗期各阶段的杂草识别. 相似文献
6.
基于SVM-DS多特征融合的杂草识别 总被引:11,自引:0,他引:11
为解决单一特征识别杂草的低准确率和低稳定性,提出一种支持向量机(SVM)和DS(Shafer-Dempster)证据理论相结合的多特征融合杂草识别方法.在对田间植物图像处理的基础上,提取植物叶片形状、纹理及分形维数3类特征,分别以3类单特征的SVM分类结果作为独立证据构造基本概率指派(BPA),引入基于矩阵分析的DS融合算法简化决策级融合算法复杂度,根据融合结果及分类判决门限给出最终的识别结果.实验结果表明,多特征决策融合识别方法正确识别率达到96.11%,与单特征识别相比有更好的稳定性和更高的识别率. 相似文献
7.
麦田杂草的图像识别技术的研究 总被引:1,自引:0,他引:1
主要研究了麦田杂草的图像识别技术,设计了麦田杂草识别系统.该系统包括使用数码相机进行麦田图像数据的采集,实现对图像的预处理;绿色植物与土壤背景的分割包括图像的灰度化与格式转换和图像的二值化;作物与杂草的分割包括作物中心行的识别和作物行的滤除,最后获取杂草图像.在滤除作物行的过程中确定边界阈值时采用通过先计算手工标定的作物行宽度与计算机自动检测的作物行宽度之间的相对误差,然后选定合适的对应最小误差的作物行边界阈值的方法.该系统全程使用MATLAB语言编程,系统最终目的是根据杂草和作物分布的位置特征滤除作物行,识别出杂草. 相似文献
8.
豌豆苗期田间杂草识别与变量喷洒控制系统 总被引:5,自引:0,他引:5
以图像实时控制器CVS-1456为核心设计了图像实时识别与变量喷洒系统.在普通光照下分别采集包含豌豆苗、土壤背景、杂草(刺儿菜)等的原始图像,分析其颜色模型,根据色差分量R-B颜色特征采用LabVIEW和IMAQ Vision编程实现杂草实时识别.基于Canny算子对识别的杂草进行边缘检测,并提取目标杂草的面积、密度和形心位置3个特征参数为变量喷洒定位提供依据.随机试验表明:基于R-B色差分量对豌豆苗期复杂背景下刺儿菜杂草平均正确识别率达到83.5%,均方差0.066,该方法准确可靠. 相似文献
9.
10.
11.
基于分区域特征点聚类的秧苗行中心线提取 总被引:4,自引:0,他引:4
为了准确检测水稻秧苗行中心线,提出了基于分区域特征点聚类的秧苗行中心线提取方法。采用2G-R-B特征因子和Otsu法分割秧苗和背景;通过分区域统计秧苗像素点分布提取秧苗行的候选特征点,利用特征点间近邻关系对特征点进行聚类,确定秧苗行数和各秧苗行的起始点;基于秧苗成行栽植特点引入“趋势线”,利用点到该直线的距离与距离阈值作比较,筛选出远离各行趋势线的点,并将其去除;对筛选后的每一行特征点用最小二乘法进行直线拟合,获取秧苗行中心线。实验结果表明,该算法具有较强的抗噪性能,提取秧苗行中心线的准确率达95.6%,与标准Hough变换和随机Hough变换算法相比,处理一幅分辨率为320像素×237像素的彩色图像平均耗时短,能够实现水田秧苗行中心线的准确提取,可为插秧机自主行走提供可靠的导航信息。 相似文献
12.
13.
机器视觉的农业导航路径规划是精准施药的关键,而作物行提取是其准确识别作物行路径的基础。为此,以玉米为研究对象,提出了一种基于最小相切圆原理和形态学相结合的作物行检测算法。首先在室外田间环境下采集生长早中期的玉米作物行图像,选择作物行比较规整的图像进行处理;其次,利用改进的超绿灰度化(1.8R-G-B)算法对玉米作物行图像进行灰度化处理,大大减少了噪声的干扰,通过中值滤波基本消除了噪声;然后,运用Otsu阈值算法获取了玉米作物行的二值图像。由于作物行呈线型,在此基础上,采用5×1像素的线型结构元素和3×3像素的方形结构元素两者相结合的方法对二值图像进行腐蚀、膨胀运算,并采用提出的最小相切圆与形态学结合的方法提取中央玉米作物行的骨架并进行中央作物行直线的拟合。实验表明:该算法能提供准确的位置信息,且对作物行边缘噪声具有较强的抗干扰能力,对进一步研究精准施药提供了参考依据。 相似文献
14.
根据制种玉米与其他作物在中高分辨率遥感影像上的光谱和纹理差异,利用多源遥感数据,以提取制种玉米种植田为研究目标,提出了作物多时相光谱特征分析的植被指数体系,多维度反映了作物不同光谱差异;在纹理检测前加入图像旋转不变处理,解决了遥感影像中作物田纹理方向问题;最后构建了多时相光谱特征和高空间分辨率遥感影像LBP-GLCM纹理特征的制种玉米田识别方法体系。以新疆霍城县为研究区,利用上述方法体系结合随机森林分类器,通过实验得到分类总体精度为90.57%,Kappa系数为0.79,制种玉米田分类结果用户精度为99.20%,制图精度为86.68%,基本满足对制种玉米田的识别需求。 相似文献
15.
行星刷式株间锄草机械手优化与试验 总被引:2,自引:0,他引:2
针对根系较发达作物和易板结土壤工况下的株间锄草,设计了行星刷式株间锄草机械手。研究了锄草机械手避苗锄草的工作原理,建立了运动学模型,研究了刷盘上点的运动轨迹和速度曲线随行星轮系传动比变化的规律。将覆盖率、入侵率及保护区范围作为锄草效果的评价指标,通过设计锄草机械手的结构参数,对锄草刷盘运动轨迹进行仿真,分析刀杆偏心距、锄草刷盘直径及装置相对作物行横向偏移对覆盖率和入侵率的影响。仿真结果表明刀杆偏心距80 mm、横向偏移20 mm以及锄草刷盘直径60~180 mm为最优参数,可获得直径30~140 mm的保护区及80%以上的株间覆盖率。对优化后的机械手进行大田锄草试验,选用传动比为3的行星轮系,平均锄草率可达89.3%,平均伤苗率为3.5%,满足锄草要求。 相似文献
16.
针对温室颠簸不平、枝叶遮挡道路的复杂环境,开展基于相机与激光雷达数据融合的机器人行间导航方法研究。首先,利用改进的U-Net模型实现图像道路区域的准确快速分割;其次,通过融合图像分割结果进行地面点云预分割,减少地面起伏造成的点云倾斜;然后,采用改进的KMeans算法实现作物行点云快速聚类,并将聚类中心作为作物行主干区域点,降低枝叶遮挡对作物行中线提取的影响;最后,采用RANSAC算法拟合两侧作物行方程并计算出导航线。通过实验评估导航线精度,在测试集中94%以上数据帧可以准确实现提取导航线,平均角度误差不高于1.45°,满足温室机器人沿作物行自主导航行驶要求。 相似文献