首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 687 毫秒
1.
稻田杂草位置获取是靶向喷施除草剂和机械智能除草的基础,为实现自然光照环境和水田复杂背景下稻田苗期杂草的信息获取。以稻田恶性杂草野慈姑为研究对象,提出一种基于全卷积神经网络的稻田苗期杂草语义分割方法,利用DeepLabV3+对秧苗和杂草进行语义分割进而获取的杂草位置信息。首先人工田间采集稻田苗期杂草野慈姑的RGB图像,通过图像标注工具LabelMe人工标注图像中秧苗、杂草和背景的各个像素点,70%数据集用于DeepLabV3+网络模型参数的训练,30%数据集用于测试DeepLabV3+性能。然后与FCN和U-Net两种语义分割方法进行比较,所提出的DeepLabV3+语义分割方法准确率、均正比、频权交并比和F值等性能指标都最优,试验得出:DeepLabV3+模型像素准确率最高达到92.2%,高于U-Net和FCN方法的准确率92.1%和84.7%。所提出的方法能对稻田苗期杂草、秧苗和背景像素进行准确分割,满足智能除草和除草剂靶向喷施的实际应用需求。  相似文献   

2.
为了提高除草机器人自主导航能力和杂草识别率,将嵌入式Web和ZigBee技术引入到了机器人的控制系统中,设计了一种新型杂草自动识别除草机器人。除草器人利用摄像头采集导航图像,利用作物颜色特征在RGB颜色空间对图像进行分割,使用OTSU方法检测作物的中心线,以农作物行中心线为基准线进行自动行走,实现了机器人的自主导航功能。机器人利用杂草识别摄像头识别杂草,使用ARM9处理器对图像进行处理,利用ZigBee发送控制指令,最后由执行末端刀盘去除杂草。为了验证机器人杂草识别和导航性能的可靠性,对机器人的性能进行了测试,结果表明:图像计算和实际机器人测试的位姿结果非常接近,杂草的识别率在99.8%以上,算法的性能可靠,杂草识别精度高,除草机器人的实时性较好。  相似文献   

3.
针对株间机械除草时末端执行器存在损伤玉米根系风险的问题,提出了一种基于玉米根系保护的除草铲土上避苗除草模式,并设计了一套智能株间除草机器人系统。该机器人系统由机器人移动平台、除草装置、视觉检测系统和控制系统组成。其中视觉检测系统采用YOLO V4网络模型来检测玉米苗和杂草;除草装置是基于除草铲空间立体运动轨迹设计,使得除草铲可以完成土上和土下2种避苗除草作业模式。田间试验表明,在机器人移动平台前进速度为1.2km/h时,玉米苗和杂草的检测率分别为96.04%和92.57%,且2种除草模式的除草率均高于81%。除草铲土上避苗除草模式的平均伤根率为3.35%,相较于除草铲土下避苗除草模式降低了36.40个百分点。结果证明该除草机器人系统运行稳定,且除草铲土上避苗除草模式具有较优的玉米根系保护性能。  相似文献   

4.
玉米苗期杂草的实时检测和精准识别是实现精准除草和智能农业的基础和前提。针对保护性耕作模式地表环境复杂、杂草易受地表秸秆残茬覆盖影响、现有算法检测速度不理想等问题,提出一种适用于Jetson TX2移动端部署的秸秆覆盖农田杂草检测方法。运用深度学习技术对玉米苗期杂草图像的高层语义信息进行提取与分析,构建玉米苗期杂草检测模型。在YOLO v5s模型的基础上,缩小网络模型宽度对其进行轻量化改进。为平衡模型检测速度和检测精度,采用TensorRT推理加速框架解析网络模型,融合推理网络中的维度张量,实现网络结构的重构与优化,减少模型运行时的算力需求。将模型迁移部署至Jetson TX2移动端平台,并对各模型进行训练测试。检测结果表明,轻量化改进YOLO v5ss、YOLO v5sm、YOLO v5sl模型的精确率分别为85.7%、94%、95.3%,检测速度分别为80、79.36、81.97 f/s, YOLO v5sl模型综合表现最佳。在Jetson TX2嵌入式端推理加速后,YOLO v5sl模型的检测精确率为93.6%,检测速度为28.33 f/s,比模型加速前提速77.8%,能够在保证检...  相似文献   

5.
基于轻量卷积结合特征信息融合的玉米幼苗与杂草识别   总被引:5,自引:0,他引:5  
孟庆宽  张漫  杨晓霞  刘易  张振仪 《农业机械学报》2020,51(12):238-245;303
针对自然环境下作物与杂草识别精度低、实时性和鲁棒性差等问题,以幼苗期玉米及其伴生杂草为研究对象,提出一种基于轻量卷积神经网络结合特征层信息融合机制的改进单步多框检测器(Single shot multibox detector,SSD)模型。首先,采用深度可分离卷积结合压缩与激励网络(Squeeze and excitation networks,SENet)模块构建轻量特征提取单元,在此基础上通过密集化连接构成轻量化前置基础网络,替代标准SSD模型中的VGG16网络,以提高图像特征提取速度;然后,基于不同分类特征层融合机制,将扩展网络中深层语义信息与浅层细节信息进行融合,融合后的特征图具有足够的分辨率和更强的语义信息,可以提高对小尺寸作物与杂草的检测准确率。试验结果表明,本文提出的深度学习检测模型对自然环境下玉米及其伴生杂草的平均精度均值为88.27%、检测速度为32.26f/s、参数量为8.82×10.6,与标准SSD模型相比,精度提高了2.66个百分点,检测速度提高了33.86%,参数量降低了66.21%,同时对小尺寸目标以及作物与杂草叶片交叠情况的识别具有良好的鲁棒性与泛化能力。本文方法可为农业自动化精准除草提供技术支持。  相似文献   

6.
为了满足田间作物长势快速检测与指导变量管理的需求,以玉米为例设计了基于多光谱成像的田间作物植株叶绿素检测系统,包括可见光(RGB)和近红外(Near-infrared, NIR)图像采集模块、主控处理器模块、模型加速模块、显示及电源模块,用于实现玉米植株智能识别与叶绿素指标一体化检测。首先,采集玉米苗期和拔节期冠层图像数据集,比较了植株冠层实例分割与株心目标检测两种深度学习模型,构建了基于MobileDet+SSDLite(Single shot multibox detector lite)轻量化网络的玉米植株定位检测模型,实现玉米植株识别。其次,提取被识别的植株株心RGB-NIR图像,开展RGB和NIR图像匹配与分割,提取R、G、B和NIR灰度值计算植被指数,使用SPXY算法(Sample set portioning based on joint X-Y distances)和连续投影算法(Successive projections algorithm, SPA)分别对数据集进行样本划分及特征变量筛选,选择高斯过程回归(Gaussian process regression, ...  相似文献   

7.
基于图像处理多算法融合的杂草检测方法及试验   总被引:1,自引:0,他引:1  
自动化除草是现代精确农业科学领域的研究热点。已有的自动化除草解决方案中普遍存在鲁棒性不强、过度依赖大量样本等问题,针对上述问题,本研究提出了基于图像处理多算法融合的田间杂草检测方法,设计了一套田间杂草自动识别算法。首先通过设置颜色空间的阈值从图像中分割土壤背景。然后采用面积阈值、模板匹配和饱和度阈值三种方法对作物和杂草进行分类。最后基于投票的方式,综合权衡上述三种方法,实现对作物和杂草的精准识别与定位。以大豆田间除草为对象进行了试验研究,结果表明,使用融合多图像处理算法的投票方法进行作物和杂草识别定位,杂草识别平均错误率为1.79%,识别精度达到98.21%。相较单一的面积阈值、模板匹配和饱和度阈值方法,基于投票权重识别杂草的精度平均提升5.71%。同时,针对复杂多变的农业场景,进行了存在雨滴和阴影干扰的鲁棒性测试,实现了90%以上的作物识别结果,表明本研究方法具有较好的适应性和鲁棒性。本研究算法可为智能移动机器人除草作业等智慧农业领域应用提供技术支持。  相似文献   

8.
基于改进卷积神经网络的复杂背景下玉米病害识别   总被引:2,自引:0,他引:2  
为解决田间环境复杂背景下病害识别困难、识别模型应用率低的问题,提出了一种基于改进卷积神经网络的玉米病害识别方法,探讨了数据集的品质对建立模型性能的影响。利用复杂背景下的玉米病害图像进行数据增强、背景去除、图像细分割和归一化等处理,设计了具有5层卷积、4层池化和2个全连接层的卷积神经网络结构,利用L2正则化和Dropout策略优化网络,对复杂背景下的玉米9种病害进行识别训练和测试,优化后的CNN模型平均识别精度为97.10%,比未优化的网络模型提高9.02个百分点。利用不同大小、不同品质的数据集对优选网络进行训练和测试,数据增强后比原始样本平均识别精度提高了28.17个百分点;将复杂背景去除后,模型性能进一步提升,识别精度达到97.96%;对数据集进行细分割处理后,平均识别精度为99.12%,表明卷积神经网络需要大量的训练数据,且数据集需有一定的代表性和品质。开发了基于移动端的玉米田间病害识别系统,系统测试结果表明,平均识别准确率为83.33%,系统能够实现田间复杂环境下的玉米病害识别。  相似文献   

9.
基于多特征融合的田间杂草分类识别   总被引:4,自引:0,他引:4  
提出了一种基于模糊BP综合神经网络的田间杂草分类识别方法。对分类特征进行模糊化处理,充分考虑了杂草的分类特征本身存在的不确定性。使用遗传算法对网络结构进行优化处理,提高了该综合神经网络的收敛性和稳定性。并基于特征级数据融合方法进行杂草识别。对田间7种杂草进行识别的实验结果表明,7种杂草的混合识别率达到94.2%;另外,对玉米及其伴生杂草进行分类测试,混合识别率达到96.7%,具有较好的识别精度。  相似文献   

10.
针对大棚内除草环境复杂,且杂草种类繁多导致识别困难的特点,设计了一种机械式智能除草机器人。对试验田数据进行采集后,使用Yolov5模型进行150次迭代训练,最终训练出模型平均精度(map50)为82%,为了提高识别准确率,迭代次数增加到300次,最终模型平均精度(map50)为91%,机器人使用了Jetson Orin nano开发板为处理器,Intel D435深度摄像头进行数据采集,图像处理时间为1.2 ms,满足实时处理要求。采用机械式除草,减少了农药使用,该研究可为以后智能除草设备设计提供参考。  相似文献   

11.
基于深度学习的无人机遥感生态灌区杂草分类   总被引:1,自引:0,他引:1  
为了更好地推进生态灌区建设,对灌区内杂草进行检测、控制,提出一种基于卷积神经网络的杂草分类和密度测算方法.通过无人机低空拍摄采集3种杂草(藜草、葎草、苍耳)和3种作物(小麦、花生、玉米)作为数据集,经过裁剪、灰度化等前期处理,并通过旋转方式扩充数据集,最后收集17 115张训练样本和750张测试样本,然后将训练集输送给卷积神经网络,采用softmax回归,实现6类植物的分类.为降低网络参数,文中试验了100×100和300×300不同分辨率图像对识别精度的影响,分类结果表明300×300分辨率时识别率最高可达到95.6%.另外为实现针对特定杂草的防控,提出了一种检测单一杂草密度的方法,可实现对灌区内各种杂草的精确监控,为后期杂草防控的精准施药提供依据,对实现高效、绿色、安全的现代农业具有重要理论意义和实用价值.  相似文献   

12.
基于Mask R-CNN的玉米田间杂草检测方法   总被引:1,自引:0,他引:1  
针对田间复杂环境下杂草分割精度低的问题,提出了基于Mask R-CNN的杂草检测方法。该方法采用残差神经网络Res Net-101提取涵盖杂草语义、空间信息的特征图;采用区域建议网络对特征图进行杂草与背景的初步二分类、预选框回归训练,利用非极大值抑制算法筛选出感兴趣区域;采用区域特征聚集方法(Ro IAlign),取消量化操作带来的边框位置偏差,并将感兴趣区域(Ro I)特征图转换为固定尺寸的特征图;输出模块针对每个Ro I计算分类、回归、分割损失,通过训练预测候选区域的类别、位置、轮廓,实现杂草检测及轮廓分割。在玉米、杂草数据集上进行测试,当交并比(Io U)为0. 5时,本文方法均值平均精度(m AP)为0. 853,优于Sharp Mask、Deep Mask的0. 816、0. 795,本文方法的单样本耗时为280 ms,说明本文方法可快速、准确检测分割出杂草类别、位置和轮廓,优于Sharp Mask、Deep Mask实例分割算法。在复杂背景下对玉米、杂草图像进行测试,在Io U为0. 5时,本文方法 m AP为0. 785,单样本耗时为285 ms,说明本文方法可实现复杂背景下的农田作物杂草分割。在田间变量喷洒试验中,杂草识别准确率为91%,识别出杂草并准确喷雾的准确率为85%,准确喷药的杂草雾滴覆盖密度为55个/cm2,装置对每幅图像的平均处理时间为0. 98 s,满足农药变量喷洒的控制要求。  相似文献   

13.
为实现铺膜插秧种植方式的有机水稻全程绿色无污染化作业,解决地膜两侧单行内杂草难以根除的问题,根据农艺要求,设计了一种针对铺膜插秧后除草作业的3SCJ-1型单行水田除草机。阐述了基本结构组成和工作原理,分析了除草部件的运动学与动力学特征,建立了除草部件、机架与仿形浮漂整体的力学模型,推导出除草机的驱动扭矩。以机器前进速度和除草深度为试验影响因素,除草率作为评价指标,对除草性能进行单因素田间试验,并运用Design-Expert 8.0.6软件对试验数据进行分析,得到影响因素与评价指标之间的数学模型。试验结果表明:当机器前进速度从0.3 m/s增大至0.6 m/s时,除草率先增大后减小,并在前进速度为0.45 m/s时,除草率达到最大值(78.52%);当除草深度从50 mm增大至110 mm时,除草率持续增大,但考虑到除草机的功耗,最佳除草深度取为50~100 mm,在除草深度为100 mm时,除草率为79.26%。除草机平均除草率为78.02%,满足铺膜插秧种植方式水田除草的农艺要求。  相似文献   

14.
为实现铺膜插秧种植方式的有机水稻全程绿色无污染化作业,解决地膜两侧单行内杂草难以根除的问题,根据农艺要求,设计了一种针对铺膜插秧后除草作业的3SCJ-1型单行水田除草机。阐述了基本结构组成和工作原理,分析了除草部件的运动学与动力学特征,建立了除草部件、机架与仿形浮漂整体的力学模型,推导出除草机的驱动扭矩。田间试验以机器前进速度和除草深度为试验影响因素,除草率作为评价指标,对除草性能进行单因素试验,并运用Design-Expert8.0.6软件对试验数据进行分析,得到影响因素与评价指标之间的数学模型。试验结果表明:当机器前进速度从0.3m/s增大至0.6m/s时,除草率先增大后减小,并在前进速度为0.45m/s时,除草率达到最大值(78.52%);当除草深度从50mm增大至110mm时,除草率持续增大,但考虑到除草机的功耗,最佳除草深度取为50~100mm,在除草深度为100mm时,除草率为79.26%。除草机平均除草率为78.02%,满足铺膜插秧种植方式水田除草的农艺要求。  相似文献   

15.
为解决化学药剂控制水田杂草所带来的环境污染及杂草抗药性增强等危害,设计了一种栅条式水田行间除草装置。同时,对其工作原理进行了阐述,通过运动学分析,推导了栅条的运动轨迹方程,并在试验台上进行试验研究。试验结果表明,该装置可一次性完成对杂草的压、翻、埋等作业,且在栅条个数为10个、栅条宽度为30mm、除草深度为50mm时,除草效果最佳,除草率可达81%,满足水田作业除草性能的要求。  相似文献   

16.
数据集对基于深度学习的作物病害识别有效性影响   总被引:1,自引:0,他引:1  
基于深度学习的作物病害自动识别已成为农业信息化领域新的研究热点,为探究数据集的大小和质量对基于深度学习的作物病害识别有效性的影响,研究不同数据集训练得到的模型识别效果并进行了分析。以338张玉米病害数据集为例,对其进行数据增强、移除背景和细分割划分等处理,设计5个AlexNet框架的CNN网络模型并利用不同类型的数据集进行测试,使用十倍交叉法验证识别结果。试验结果表明:使用不同数量和等级的数据训练后的模型识别准确率分别为56.80%、78.30%、80.50%、89.30%和81.00%。在获得每个网络的最终精度后,挑选出识别错误的图像进行分析,结合前人的研究结果,得出影响深度神经网络用于作物病害识别有效性的9个主要因素。数据集对基于深度学习的作物病害识别有效性的影响因素主要分为带注释的数据集大小、叶片症状代表性、协变量转移、图像背景情况、图像数据获取过程、症状分割、特征多变性、并发性病害以及症状的相似性等这9类,该试验能够为深度学习技术田间病害识别的实际应用中提供依据和指导。  相似文献   

17.
针对玉米田杂草的机械防除需求,设计了一种行间锄铲式玉米中耕除草机,从土壤和杂草运动、土壤破碎、除草效果等角度对其作业性能进行了研究。结果显示:锄铲式玉米中耕除草机作用下,表层各位置土壤的水平位移显著大于其纵向位移,且位于锄铲高效运动范围内的土壤运动位移显著大于非高效运动范围内的土壤运移;同时,靠近锄铲高效运动范围内的杂草运动比例高达80%。锄铲式除草机的除草株防效为83.4%、鲜重防效为82.6%。锄铲式玉米中耕除草机作用后,土壤结构典型直径为10.4 cm,5 cm深度处土壤紧实度降低了64.4%。研究结果为除草机械的优化设计提供了理论参考。  相似文献   

18.
针对深层神经网络模型部署到番茄串采摘机器人,存在运行速度慢,对目标识别率低,定位不准确等问题,本文提出并验证了一种高效的番茄串检测模型。模型由目标检测与语义分割两部分组成。目标检测负责提取番茄串所在的矩形区域,利用语义分割算法在感兴趣区域内获取番茄茎位置。在番茄检测模块,设计了一种基于深度卷积结构的主干网络,在实现模型参数稀疏性的同时提高目标的识别精度,采用K-means++聚类算法获得先验框,并改进了DIoU距离计算公式,进而获得更为紧凑的轻量级检测模型(DC-YOLO v4)。在番茄茎语义分割模块(ICNet)中以MobileNetv2为主干网络,减少参数计算量,提高模型运算速度。将采摘模型部署在番茄串采摘机器人上进行验证。采用自制番茄数据集进行测试,结果表明,DC-YOLO v4对番茄及番茄串的平均检测精度为99.31%,比YOLO v4提高2.04个百分点。语义分割模块的mIoU为81.63%,mPA为91.87%,比传统ICNet的mIoU提高2.19个百分点,mPA提高1.47个百分点。对番茄串的准确采摘率为84.8%,完成一次采摘作业耗时约6s。  相似文献   

19.
针对丘陵山区前胡种植使用除草机时存在草土不分离导致杂草复生、碎石飞射伤人的问题,设计了一款抛推组合式草土分离除草机。对称螺旋结构的除草轮将土推向两侧,避免碎石飞射伤人。刀齿将杂草抛向后方实现草土分离,防止杂草复生。螺旋结构除草轮采用中轴对称左右旋向相反布置,使得碎石沿轴向两边飞离,有效防止碎石飞射伤到后方机手。通过理论分析确定除草轮的齿形、齿数,分别进行除草轮在杂草-土壤、碎石-土壤模型中的运动分析。使用EDEM和ANSYS耦合仿真,验证其工作性能和物理性能。通过田间试验,验证除草轮能够实现草土分离,得出机具的最佳工作参数为:除草轮转速13 r/s、前进速度400 mm/s、除草深度35 mm,平均除净率为86.7%。  相似文献   

20.
基于多视角时间序列图像的植物叶片分割与特征提取   总被引:1,自引:0,他引:1  
娄路  吕惠  宋然 《农业机械学报》2022,53(1):253-260
为了解决多种类植物在生长过程中不同时间点动态变化表型参数提取困难问题,提出了一种基于多视角时间序列图像和深度卷积神经网络Mask-RCNN的植物茎叶实例分割方法,在拟南芥、玉米和酸浆属3种代表性植物上进行了实验.结果 表明,训练得到的基于Mask-RCNN的植物分割模型对在不同生长时期的植物茎叶的识别精度(mAP0.5...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号