首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 421 毫秒
1.
纹理分割是图像识别与处理过程中的一个重要环节。为此,从智能割草机器人作业场景入手,从改善智能机器人视觉识别角度出发,通过对图像纹理特征分析,提出一种能较好地适应智能割草机器人进行草地分界线提取的算法。同时,按照草地图像纹理分割图提取思路,很好地进行分割点坐标拟合,得出最优的、符合实际作业场景的草地边界分割图,可用于后序完善、优化智能机器人作业路径。  相似文献   

2.
为解决无导航功能的智能割草机割草区域最佳覆盖的问题,将智能视觉和人工智能聚类算法引入到了割草机控制系统的设计上,通过分解目标区域和计算质心位置,实现作业区域的全覆盖识别。机器人控制系统利用智能视觉来判断割草作业区域,代替了以信号和微波等为依据的导航功能,可以有效地提高作业区域的识别效率和精度。为了验证方案的可行性,以割草机器人路径规划为例,对割草机器人的路径规划时间和准确率进行了测试。结果表明:基于智能视觉和人工聚类算法的割草机器人具有较高的路径规划效率,且路径规划的准确率也较高,可以满足割草机器人控制系统的设计需求。  相似文献   

3.
谢忠华 《农业工程》2016,6(5):30-32
以割草机器人为研究对象,重点进行了草地识别和非接触避障两方面的研究,提出了基于视觉导航的割草机器人运动控制策略。并对割草机器人进行了场地试验,试验测试表明各控制方案相对有效,能够有效解决实际问题,对于智能割草机器人控制应用领域具有重要价值。   相似文献   

4.
首先,采用运动控制、能源、传感器、核心处理器和割草等5个模块设计了农业割草机器人试验平台;然后,利用纹理特征对障碍物图像分割算法进行分析研究;最后,基于CCD*实现了割草机器人的全区域覆盖作业。实验结果表明:使用研究的CCD*算法大大提高了割草机器人全区域覆盖作业的能力和作业效率。  相似文献   

5.
首先建立了割草机器人环境模型和传感器系统,然后利用OTSU算法和Faster R-cnn对图像进行分割和障碍物识别,最后根据割草机器人和周边环境搭建了一个人工势场,实现了对割草机器人路径规划。试验结果表明:割草机器人能够自行躲避障碍物目标,对预设路径进行局部重新规划,证明了该系统的可靠性和可行性。  相似文献   

6.
为进一步优化割草机器人的导航系统控制的精度与效率,以智能化的导航融合技术及核心控制算法为导向,对其导航系统展开深入仿真研究。以割草机器人的构件组成和运动原理为平台,结合当前符合实际的运动学理论与PID实时调控机理,建立了割草机器人的导航控制理论模型,同时对导航系统的硬件接口及核心配置进行合理选型,对系统的图像信息识别与处理进行软件程序关键步骤调整与智能导航算法融入,并展开导航系统的控制仿真试验。试验结果表明:在一定的基准站参考坐标下进行导航数据的获取与实时输出,得到割草机器人行驶路程与平均跟踪误差间的关系曲线,误差可控制在±0.15m范围内;导航仿真过程可实现最大横向控制误差为0.133 8m的良好效果,价值平均运行稳定率保持在90.54%以上,整体运行稳定可靠。该研究对于农用其他装备的导航控制板块改善具有一定的参考意义。  相似文献   

7.
孙伟  李文俊 《农机化研究》2022,44(1):146-150
首先,从设计需求、结构体系和控制系统设计了割草机器人总体方案;然后,设计了草坪边界提取算法和割草机器人路径规划系统,实现了一套基于改进蚁群算法和计算机视觉的割草机器人路径规划系统.试验结果表明:割草机器人能够实现草坪边界提取和规划出最优路径,割草机器人路径规划具有一定的可行性.  相似文献   

8.
采摘机器人视觉伺服策略研究——基于回归数据挖掘的   总被引:2,自引:0,他引:2  
为了实现采摘机器人的准确抓取控制、路径识别和自主导航功能,提出了一种基于回归数据挖掘计算模型的机器人视觉伺服控制系统。首先利用双目相机获取果实图像,然后利用拉普拉斯变换和高斯滤波方法对图片进行平滑和增强处理,并利用Canny算法对图像边缘进行检测和分割处理,完成图像的预处理。对图像进行目标识别,提取图像的特征,并采用回归数据挖掘方法对滤波图像进行检验,最终通过计算得到果实图像的中心位置,将中心位置利用控制器反馈给控制中心,控制中心发出指令,控制末端执行器完成果实的采摘作业。对机器人视觉伺服系统进行了测试,结果表明:利用采摘机器人视觉伺服系统可以准确地计算果实的中心位置,实测位置和计算位置的吻合程度较高,视觉伺服系统的计算的稳定性较好。  相似文献   

9.
智能轨迹控制割草机器人设计——基于FPGA神经网络   总被引:1,自引:0,他引:1  
为了提高割草机器人自主导航和定位的精确性和智能性,设计了一种新型的基于FPGA神经网络算法的割草机器人。该设计采用FPGA可重构技术,以3层误差反向传播神经网络作为典型的模型来展开;利用成熟的BP算法公式,设计了割草机器人智能控制的模型;利用FPGA技术,设计了割草机器人的硬件系统;最后采用文本输入的设计方法,利用田间试验的方式,对机器人的轨迹规划能力和控制精度进行了验证。试验结果表明:利用FPGA和神经网络模型可以有效地穿越5个障碍物,并可得到满意的轨迹规划结果。将普通的PID控制器和神经网络PID控制器得到的控制结果误差进行了对比,结果表明:神经网络PID控制器得到的割草机器人控制误差明显比传统的PID控制器误差小。该方法为神经网络的硬件实现提供了可靠的理论基础。  相似文献   

10.
针对如何实现快速、高效的采摘,提出机器人智能采摘实验平台系统,该采摘机器人依靠视觉反馈控制来识别采摘物的位置。研究机器人手臂的运动控制,构建机器人的运动学模型。分析机械手的视觉伺服控制问题,直接将图像位置误差矢量映射到所需的末端执行器速度矢量。对机器人智能采摘进行试验分析,试验任务进行171次,准确率94.67%。试验结果验证该视觉伺服控制方法在实际场景中对采摘物识别效率,提高视觉伺服系统的鲁棒性和有效性。  相似文献   

11.
基于视觉的苗期作物目标识别技术逐渐成熟,对作物进行准确识别和精准定位,是实现株间除草的技术关键和难点。本文以苗期玉米为研究对象,提出了一种苗期作物的识别与定位方法,通过作业车辆的图像采集装置来实时获取田间作物的苗期图像,基于HSV色彩空间对输入图像进行预处理,根据作物与土壤背景颜色差异,选取固定取值范围的三通道阈值,通过二值化处理去除土壤背景,再通过深度开运算来去除杂草噪声,对得到的苗期作物提取轮廓信息,经过骨架提取算法后得到作物骨架,并以此确定作物茎秆位置坐标,从而实现对作物的精准定位。作物图像中幼苗的识别率为98.3%,定位误差距离在10 mm以内的定位精准度为85.9%,基本可以满足智能除草机器人实时除草作业要求。  相似文献   

12.
果园环境路面条件差、路面崎岖、颠簸,且果园环境的光照条件变化明显,对机器人视觉系统的图像处理单元具有高运动噪音干扰和高光照条件变化干扰的特点。当前我国泛用型除草机器人视觉系统普遍不适用于果园环境,其识别效率较低、可靠性较差,针对这一问题,提出一种基于机器视觉的果园喷药除草机器人视觉系统。该视觉系统将2G-R-B模型、OTSU阈值分割和二值形态学滤波技术综合应用于果园杂草的图像处理与识别,解决喷药除草机器人在图像高运动噪音干扰及光照条件变化干扰的果园环境下的杂草识别问题,提高果园喷药除草机器人视觉系统的图像分割可靠性及识别精度。试验结果表明:应用该视觉系统的果园喷药除草机器人在日光及夜间照明环境下的喷药成功率分别为84.5%和80.5%,喷药效果良好,且受日光光照条件影响较小,在果园喷药除草作业等方面具有实际应用价值。  相似文献   

13.
为进一步设计优化割草机器人的外型,不断提升其用户满意度和视觉体验效果,针对个性化割草机器人进行了外观设计研究。结合割草机器人的工作原理及核心部件参数,进行结构及外观信息捕捉,考虑各割草作业环境的多变性因素,将割草机器人的前结构模型按照一定规则导出为外观设计模型,进行结构模型与设计模型的互为调整,通过核心控制算法程序整合为个性化割草机器人协调性的外观模型,并进行外观设计试验。结果试验表明:一方面,整机设计周期约为6周条件下,整体测试运行效率较外观设计优化前提升2.8%以上,其结构协调性和整机的外观设计满意度均保持在平稳水平,设计合理有效;另一方面,总结出实现设计外观的标准化操作步骤,可为类似智能机器外观设计提供一定的参考。  相似文献   

14.
夜间自然环境下荔枝采摘机器人识别技术   总被引:5,自引:0,他引:5  
利用机器视觉实现自然环境下成熟荔枝的识别,对农业采摘机器人的研究与发展具有重要意义。本文首先设计了夜间图像采集的视觉系统,然后选取了白天和夜间两种自然环境下采集荔枝图像,分析了同一串荔枝在白天自然光照与夜间LED光照下的颜色数据,确定了YIQ颜色模型进行夜间荔枝果实识别的可行性。首先选择夜间荔枝图像的I分量图,利用Otsu算法分割图像去除背景,然后使用模糊C均值聚类算法分割果实和果梗图像,得到荔枝果实图像;再利用Hough圆拟合方法检测出图像中的各个荔枝果实。荔枝识别试验结果表明:夜间荔枝图像识别的正确率为95.3%,识别算法运行的平均时间为0.46 s。研究表明,该算法对夜间荔枝的识别有较好的准确性和实时性,为荔枝采摘机器人的视觉定位方法提供了技术支持。  相似文献   

15.
自然场景下花椒果实的识别   总被引:1,自引:0,他引:1  
提出一种自然场景下应用于花椒采摘机器人视觉系统的果实识别算法。该方法采用红色和绿色图像差异(R—G)来进行图像分割,使用优化腐蚀滤除噪点和隔离带法除去非目标花椒串果实,再求取花椒果实串的形心和半径。试验结果表明,该算法能有效的识别花椒果实,确定果实串的中心位置误差为10mm,识别半径误差与花椒果实串最小半径比0.05。  相似文献   

16.
为解决目前农业采摘机器人目标难以识别与定位的问题,在原有农业采摘机器人的基础上,提出一种改进YOLOv3算法和3D视觉技术相结合的方法,实现目标的准确识别和精准定位,并利用标定完成目标坐标系和机器人坐标系的转换。通过试验分析改进YOLOv3算法的性能,并与之前的YOLOv3算法、Fast RCNN算法和Faster RCNN算法进行综合比较,研究表明所采用的改进YOLOv3算法和3D视觉具有较高的识别准确度和定位精度,识别准确率分别提高55%、9%、1.4%,最大定位误差分别降低0.69、0.44、0.28 mm,可以较好地完成后续采摘工作,对于农业机器人的发展具有重要的参考价值。  相似文献   

17.
为了提高采摘机器人的路径规划能力,基于计算机网络算法设计了智能采摘系统。首先,采摘机器人采集农田图像时,基于PSPNet网络算法,设计改进型计算机网络算法,实现农田环境因素识别;其次,识别获得道路特征图,并进行图像处理,得到道路边缘,拾取道路两边缘中线离散点,进行引导线拟合;最后,采用双目视觉系统实现障碍物定位,进而建立路径规划函数,当路径规划函数取最小值时,道路规划最优。对引导线精度进行测试,结果表明:误差分布范围为-1.2%~5.3%。对障碍物测距进行测试,结果表明:机器人和行人之间的相对偏差分布区间为[-2.2%, 2.8%],和车辆之间的相对误差分布区间为[-2.9%, 3.4%]。  相似文献   

18.
采摘机器人在作业时遇到通过自主导航无法越过的障碍物时,或者在危险的地带无法进行人工采摘作业时,需要借助远程方式进行实时控制,使其成功越过障碍物,并在高危环境中有效地展开采摘作业。为了优化采摘机器人远程控制系统,提出了一种基于手势识别的远程控制方案,并引入了势场蚁群算法,提高了机器人的控制的准确性和高效性。在远程控制方案中,将基于视觉的手势识别与远程控制机械手相结合,通过深度相机采集手势图像并提取手势特征,转换为机械手舵机的控制命令,并通过无线网络发送至采摘机器人控制单元,实现视觉手势对机器人的远程控制。对采摘机器人进行了测试,通过测试发现:基于蚁群算法的手势识别系统可以有效地追踪得到不同的动态手势,且可以准确地识别手势所代表的意义,成功实现了机器人远程控制的手势识别。该方法不仅可以远程实现机器人避障功能,还可以将其应用在山谷、沼泽等危险地带进行采摘作业,实现其非凡的使用价值。  相似文献   

19.
针对目前棚室内机器人作业分析算法智能性不足、准确作业率较低,且一次巡航过程只能进行单一作业,存在使用效率不高的问题,提出了一种搭载在三臂棚室机器人上,基于体感操控作业的决策规划算法,用Kinect采集含操作人员位姿信息的深度图像,结合随机森林统计学习理论和基于高斯核函数的Mean shift算法,确定了代表人体位姿的20个关键骨骼点坐标,在此基础上提出了一种基于模式切换的三臂映射关系,将骨骼点信息映射到机器人工作空间,使人的两只手臂能自如的控制三臂机器人,在一次巡航中完成多种棚室作业;此外,还提出了一种结合骨骼追踪技术和YCb Cr颜色空间的手势特征分割方法,实现了用手势控制机器人末端执行器作业。最后,搭建了用于测试体感决策算法的三臂机器人样机,进行了针对该决策算法的精确性试验,根据试验误差数据对肩部关节夹角采用离散化取值识别,解决了肩部关节识别误差,结果表明:测试者被捕捉到的关节处夹角和机器人对应关节夹角的最大映射误差为1.90°,上位机发送夹角值与机器人实际转动的夹角值最大误差为0.80°,在误差允许范围内,同时在该精度下完成一套采摘加喷施作业指令,平均耗时13.34 s,且操作者还可通过体感操控训练进一步提高机器人作业性能,表明该算法具有准确性和实用性。  相似文献   

20.
基于机器视觉的水果采摘机器人目标识别方法   总被引:2,自引:0,他引:2  
为解决水果采摘机器人快速、准确识别目标问题,提出一种基于机器视觉的类球状水果识别方法。首先采用基于颜色归一化差的图像分割算法,将果实从背景中分割出来;然后利用单像素边缘跟踪算法提取果实边缘,并在跟踪过程中利用直线投影法剔除角点,使交叉边缘在角点处断开,提高遮挡情况下识别的准确性;最后通过最小二乘法检测圆形,识别果实。实验结果表明,算法处理中等大小的图像平均用时83.548ms,识别准确率达95%以上。算法快速、鲁棒,可以满足机器人实时作业要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号