首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 328 毫秒
1.
针对自然环境下油茶果存在多种类、多遮挡及小目标等问题,该研究基于YOLOV5s提出COF-YOLOv5s(camellia oleifera fruit-you only look once)油茶果识别模型,实现油茶果的高精度检测。通过添加小目标检测层、将FasterNet中的轻量化模块Faster Block嵌入到C3模块及添加Biformer注意力机制对YOLOv5s进行改进。试验结果表明,改进后网络在测试集上的精度、召回率、平均精度均值分别为97.6%、97.8%、99.1%,比YOLOv5s分别提高2.9、7.5、6.5个百分点,推理时间为10.3 ms,模型权重文件16.1 MB。将模型部署到Jetson Xavier NX中,结合ZED mini相机进行油茶果识别与定位试验。室内试验得到COF-YOLOv5s的召回率为91.7%,比YOLOv5s提高47.3个百分点;室外绿油茶果的召回率为68.8%,小目标红油茶果在弱光条件下的召回率为64.3%。研究结果可为实现油茶产业的智能化和规模化提供理论支持。  相似文献   

2.
智能虫情测报灯对农业生产中及时察觉虫害、虫灾问题起重大作用,准确的害虫分类识别是给虫情测报提供可靠数据支撑的关键。该研究对智能虫情测报灯所需核心识别算法进行改进,针对分类目标多尺度、存在多种相似非目标害虫干扰、易产生目标粘连等问题,提出一种基于改进Mask-RCNN(mask region-based convolutional neural network)模型的害虫图像智能识别模型。该模型使用DeAnchor算法改进Mask-RCNN的锚框引导机制,使用NDCC(novelty detection consistent classifiers)训练分类器进行联合分类和检测,改善非目标杂虫的误识别问题。改进后模型对无杂虫、不同虫体密度图像的识别准确率最高达到96.1%,最密集时可达90.6%,比原Mask-RCNN模型识别准确率平均提高4.7个百分点。对于含杂虫图片,在仅有非目标的图片识别中,误检率降至9%,非目标与目标共存且密度为40虫/图的误检率降至15%。试验表明,该文所提模型在现有分类模型的基础上,增强了对密集区域的检测能力,改善了非目标误识别问题,在实际检测环境下的害虫分类识别精度更高,可为虫害防治工作提供数据参考。  相似文献   

3.
为解决果实检测模型在密植环境中对于不同场景适应力较差和严重的数据依赖性问题,该研究结合YOLOv5模型和域自适应学习,提出了一种新型的番茄域自适应检测模型TDA-YOLO(tomato detection domain adaptation)。该研究将密集种植环境中正常光照场景作为源域,其他光照场景作为目标域。首先,引入神经预设的颜色风格迁移来构建伪数据集,减小源域和目标域之间的差异。其次,该研究结合半监督学习方法,使模型能够更充分的提取域不变特征,并利用知识蒸馏提高模型适应目标域能力。此外还引入FasterNet轻量级网络整合到C3模块中,以加快推理速度并减少参数量。试验结果表明,在不同场景的密集种植环境中,TDA-YOLO模型检测番茄的均值平均精度为96.80%,比原始YOLOv5s模型提高了7.19个百分点,相较于最新的YOLOv8和YOLOv9也分别高出2.17和1.19个百分点,其对于每张图像的平均检测时间为15 ms,FLOPs大小为13.8G。经过加速处理后,Jetson Xavier NX 开发板上部署的 TDA-YOLO 模型的检测准确率为90.95%,均值平均精度值为91.35%,每张图像的检测时间为 21 ms,满足密植环境下番茄实时检测的要求。试验结果表明提出的TDA-YOLO模型可在密植环境下准确、快速的检测番茄,同时避免了使用大量的标注数据,为番茄等果实自动化收获系统的开发提供技术支持。  相似文献   

4.
基于深度卷积神经网络的番茄主要器官分类识别方法   总被引:3,自引:14,他引:3  
为实现番茄不同器官的快速、准确检测,提出一种基于深度卷积神经网络的番茄主要器官分类识别方法。在VGGNet基础上,通过结构优化调整,构建了10种番茄器官分类网络模型,在番茄器官图像数据集上,应用多种数据增广技术对网络进行训练,测试结果表明各网络的分类错误率均低于6.392%。综合考虑分类性能和速度,优选出一种8层网络用于番茄主要器官特征提取与表达。用筛选出的8层网络作为基本结构,设计了一种番茄主要器官检测器,结合Selective Search算法生成番茄器官候选检测区域。通过对番茄植株图像进行检测识别,试验结果表明,该检测器对果、花、茎的检测平均精度分别为81.64%、84.48%和53.94%,能够同时对不同成熟度的果和不同花龄的花进行有效识别,且在检测速度和精度上优于R-CNN和Fast R-CNN。  相似文献   

5.
基于特征金字塔注意力与深度卷积网络的多目标生猪检测   总被引:13,自引:12,他引:1  
在生猪饲养环境中,猪只黏连、杂物遮挡等给生猪个体多目标检测带来很大困难。该研究以猪圈群养生猪为研究对象,以视频帧为数据源,提出一种适用于生猪形体检测的特征金字塔注意力(FeaturePyramidAttention,FPA)与Tiny-YOLO相结合的模型FPA-Tiny-YOLO。该模型将注意力信息融入到特征提取过程,在不大幅增加计算量的前提下即可提升特征提取能力、提高检测精度。对8栏日龄20~105 d的45头生猪视频截取图像进行图像处理,获得标注图片4 102张,构建了4种深度FPA模块分别加入YOLOV3与Tiny-YOLO模型中。试验表明,深度为3的FPA模块(即FPA-3)的Tiny-YOLO模型在测试集上对群养生猪多目标检测的召回率Recall、F1与平均检测精度m AP指标值最佳,分别达到86.09%、91.47%和85.85%,比未引入FPA模块的Tiny-YOLO模型均有不同程度的提高。选用不同的IOU(Intersection Over Union)和score阈值超参数值对模型预测结果均有不同程度影响;将测试集图像按照是否黏连与遮挡划分4种场景来探究该模型的鲁棒性。试验表明,加入FPA-3模块后Tiny-YOLO的Recall、F1与m AP比Tiny-YOLO分别提升6.73、4.34和7.33个百分点,说明特征金字塔注意力信息有利于精确、有效地对不同场景群养生猪进行多目标检测。研究结果可为后续开展生猪身份识别和行为分析移动端应用提供参考。  相似文献   

6.
基于改进Tiny-YOLO模型的群养生猪脸部姿态检测   总被引:8,自引:6,他引:2  
生猪脸部包含丰富的生物特征信息,对其脸部姿态的检测可为生猪的个体识别和行为分析提供依据,而在生猪群养场景下,猪舍光照、猪只黏连等复杂因素给生猪脸部姿态检测带来极大挑战。该文以真实养殖场景下的群养生猪为研究对象,以视频帧数据为数据源,提出一种基于注意力机制与Tiny-YOLO相结合的检测模型DAT-YOLO。该模型将通道注意力和空间注意力信息引入特征提取过程中,高阶特征引导低阶特征进行通道注意力信息获取,低阶特征反向指引高阶特征进行空间注意力筛选,可在不显著增加参数量的前提下提升模型特征提取能力、提高检测精度。对5栏日龄20~105d的群养生猪共35头的视频抽取504张图片,共计3712个脸部框,并标注水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态,构建训练集,另取420张图片共计2 106个脸部框作为测试集。试验表明,DAT-YOLO模型在测试集上对群养生猪的水平正脸、水平侧脸、低头正脸、低头侧脸、抬头正脸和抬头侧脸6类姿态预测的AP值分别达到85.54%、79.30%、89.61%、76.12%、79.37%和84.35%,其6类总体m AP值比Tiny-YOLO模型、仅引入通道注意力的CAT-YOLO模型以及仅引入空间注意力的SAT-YOLO模型分别提高8.39%、4.66%和2.95%。为进一步验证注意力在其余模型上的迁移性能,在同等试验条件下,以YOLOV3为基础模型分别引入两类注意力信息构建相应注意力子模型,试验表明,基于Tiny-YOLO的子模型与加入相同模块的YOLOV3子模型相比,总体m AP指标提升0.46%~1.92%。Tiny-YOLO和YOLOV3系列模型在加入注意力信息后检测性能均有不同幅度提升,表明注意力机制有利于精确、有效地对群养生猪不同类别脸部姿态进行检测,可为后续生猪个体识别和行为分析提供参考。  相似文献   

7.
基于红外热成像与改进YOLOV3的夜间野兔监测方法   总被引:7,自引:7,他引:0  
随生态改善,野兔数量增多,对农田与林地的危害日益加重。野兔活动多为夜间,目标小,运动速度快,且出现环境较复杂,监控兔害,需要一种高效智能化的方法。针对野兔活动习性,该文提出了使用红外热成像实时监控,结合改进的YOLOV3目标检测方法对夜间野兔进行检测。根据YOLOV3目标检测网络基本结构提出了一种针对红外图像中野兔的实时检测的网络(infrared rabbit detection YOLO,IR-YOLO),该网络特征提取部分压缩YOLOV3特征提取网络深度,利用浅层卷积层特征以提高低分辨率红外小目标检测精度,降低运算量,网络检测部分使用基于CenterNet结构的检测方式以提高检测速度。使用热成像野外实时采集的夜间野兔图像作为数据集,包括不同距离,尺度,出现环境不同的野兔共计6 000幅红外图像制作训练集与测试集,比例为5:1。试验结果表明,IR-YOLO在红外热成像视频中复杂环境下出现的野兔检测率达75%,平均检测速度51帧/s,相对改进前YOLOV3检测率提高15个百分点,相对改进前YOLOV3检测速度提高5帧/s。相比其他目标检测算法各项检测指标更为优良,检测率方面相对Faster-RCNN与RFCN-RESNET101分别提高45个百分点与20个百分点,检测速度方面相对Faster-RCNN与RFCN-RESNET101分别提高30和与45帧/s。该方法可高效快速地对夜间复杂环境下出现的野兔进行检测,也可广泛应用于夜间对其他类型农业害兽的检测。  相似文献   

8.
实现繁育期精准个体检测是提高集约养殖环境下肉鸽繁育效率和精准管控效果的有效手段,其中小目标鸽蛋及粘连乳鸽的精准检测是关键。该研究提出了一种基于改进RetinaNet的目标检测模型,以RetinaNet网络为基础框架,将ResNet50特征提取网络与特征金字塔网络(Feature Pyramid Networks,FPN)结合,增加特征金字塔网络中特征检测尺度,提升对图像中遮挡鸽蛋与粘连乳鸽的检测精度;在分类和回归子网络前引入卷积注意力模块(Convolutional Block Attention Module,CBAM),提升对小目标检测的精度。试验结果表明,该研究提出的模型对于笼养肉鸽个体检测的平均精度均值(mean Average Precision,mAP)达到80.89%,相比SSD、YOLOv3、YOLOv4、YOLOv5s、YOLOv5m和原始RetinaNet模型提高了18.66、29.15、19.92、21.69、18.99与15.45个百分点;对成鸽、乳鸽与鸽蛋检测的平均精度(Average Precision,AP)分别为95.88%,79.51%和67.29%,相对原始RetinaNet模型提高了2.16、21.74和22.48个百分点,在保证成鸽精准检测的基础上,显著提升了对复杂环境下存在局部遮挡的小目标鸽蛋以及粘连乳鸽的检测精度,为实现集约化养殖环境下肉鸽繁育周期个体检测和精准管控提供有效支持。  相似文献   

9.
张勤  陈建敏  李彬  徐灿 《农业工程学报》2021,37(18):143-152
采摘点的识别与定位是智能采摘的关键技术,也是实现高效、适时、无损采摘的重要保证。针对复杂背景下番茄串采摘点识别定位问题,提出基于RGB-D信息融合和目标检测的番茄串采摘点识别定位方法。通过YOLOv4目标检测算法和番茄串与对应果梗的连通关系,快速识别番茄串和可采摘果梗的感兴趣区域(Region of Interest,ROI);融合RGB-D图像中的深度信息和颜色特征识别采摘点,通过深度分割算法、形态学操作、K-means聚类算法和细化算法提取果梗图像,得到采摘点的图像坐标;匹配果梗深度图和彩色图信息,得到采摘点在相机坐标系下的精确坐标;引导机器人完成采摘任务。研究和大量现场试验结果表明,该方法可在复杂近色背景下,实现番茄串采摘点识别定位,单帧图像平均识别时间为54 ms,采摘点识别成功率为93.83%,采摘点深度误差±3 mm,满足自动采摘实时性要求。  相似文献   

10.
为解决光线遮蔽、藻萍干扰以及稻叶尖形状相似等复杂环境导致稻田杂草识别效果不理想问题,该研究提出一种基于组合深度学习的杂草识别方法。引入MSRCP(Multi-Scale Retinex with Color Preservation)对图像进行增强,以提高图像亮度及对比度;加入ViT分类网络去除干扰背景,以提高模型在复杂环境下对小目标杂草的识别性能。在YOLOv7模型中主干特征提取网络替换为GhostNet网络,并引入CA注意力机制,以增强主干特征提取网络对杂草特征提取能力及简化模型参数计算量。消融试验表明:改进后的YOLOv7模型平均精度均值为88.2 %,较原YOLOv7模型提高了3.3个百分点,参数量减少10.43 M,计算量减少66.54×109次/s,有效提高模型速度与精度。识别前先经过MSRCP图像增强后,改进YOLOv7模型的平均精度均值提高了2.6个百分点,模型对光线遮蔽、藻萍干扰以及稻叶尖形状相似的复杂环境下平均精度均值分别提高5.3、3.6、3.1个百分点;再加入ViT分类网络后,模型平均精度均值进一步提高,较原模型平均精度均值整体提升了4.4个百分点,在复杂环境下的平均精度均值较原模型整体提升了6.2、6.1、5.7个百分点。ViT-改进YOLOv7模型的平均精度均值为92.6 %,相比于YOLOv5s、YOLOXs、MobilenetV3-YOLOv7、YOLOv8和改进YOLOv7分别提高了11.6、10.1、5.0、4.2、4.4个百分点。研究结果可为稻田复杂环境的杂草精准识别提供支撑。  相似文献   

11.
为满足植物工厂中番茄智能化授粉作业的需要,解决目前机器人在授粉过程中因花朵小、姿态朝向各异而导致的检测精度不高和授粉策略不完善的问题,该研究提出一种由目标检测、花期分类和姿态识别相结合的番茄花朵检测分类算法--TFDC-Net(Tomato flower detection and classification network)。在花朵检测阶段,基于YOLOv5s对其网络进行改进,添加了卷积块注意力模块(Convolutional Block Attention Module,CBAM)及采用了加权框融合(Weighted Boxes Fusion,WBF)的方法,提出一种改进的YOLOv5s网络。该网络在使用线下数据增强的基础上训练得到ACW_YOLOv5s模型,该模型的准确率为0.957,召回率为0.942,mAP0.5为0.968,mAP0.5~0.95为0.62,各项指标相较于原网络模型分别提高了0.028,0.004,0.012,0.066。经测试表明,ACW_YOLOv5s模型解决了远处的小目标及被遮挡的目标漏检,重叠目标误检的问题。同时,为解决花朵不同花期和花蕊不同朝向的授粉问题,研究采用EfficientNetV2分类网络分别对3种不同花期和5种不同姿态的花朵进行训练得到花期分类模型及姿态识别模型,模型准确率分别为94.5%和86.9%,通过对目标进行花期分类和姿态识别判断是否对其进行授粉。为进一步验证分类模型的性能,分别选取300张花期图片和200张姿态图片对模型进行测试,花期分类模型和姿态分类模型的测试总体准确率分别为97%,90.5%。将TFDC-Net算法应用于自主研发的授粉机器人中并进行试验验证,结果表明,该算法能够完成对番茄花朵的目标检测,花期分类和姿态识别。再通过坐标转换实现目标定位,并对目标进行授粉。该研究为授粉机器人的目标检测与定位提供了一定的技术依据。  相似文献   

12.
基于改进YOLOv3-Tiny的番茄苗分级检测   总被引:3,自引:3,他引:0  
为了提高番茄苗分选移栽分级检测精度,该研究提出了YOLOv3-Tiny目标检测改进模型.首先建立了番茄穴盘苗数据集,使用K-means++算法重新生成数据集锚定框,提高网络收敛速度和特征提取能力;其次为目标检测模型添加SPP空间金字塔池化,将穴孔局部和整体特征融合,提高了对弱苗的召回率;同时加入路径聚合网络(PANet...  相似文献   

13.
改进Mask R-CNN的温室环境下不同成熟度番茄果实分割方法   总被引:12,自引:12,他引:0  
基于深度神经网络的果实识别和分割是采摘机器人作业成功的关键步骤,但由于网络参数多、计算量大,导致训练时间长,当模型部署到采摘机器人上则存在运行速度慢,识别精度低等问题。针对这些问题,该研究提出了一种改进Mask R-CNN的温室环境下不同成熟度番茄果实分割方法,采用跨阶段局部网络(Cross Stage Partial Network,CSPNet)与Mask R-CNN网络中的残差网络(Residual Network,ResNet)进行融合,通过跨阶段拆分与级联策略,减少反向传播过程中重复的特征信息,降低网络计算量的同时提高准确率。在番茄果实测试集上进行试验,结果表明以层数为50的跨阶段局部残差网络(Cross Stage Partial ResNet50,CSP- ResNet50)为主干的改进Mask R-CNN模型对绿熟期、半熟期、成熟期番茄果实分割的平均精度均值为95.45%,F1分数为91.2%,单张图像分割时间为0.658 s。该方法相比金字塔场景解析网络(Pyramid Scene Parsing Network,PSPNet)、DeepLab v3+模型和以ResNet50为主干的Mask R-CNN模型平均精度均值分别提高了16.44、14.95和2.29个百分点,相比以ResNet50为主干的Mask R-CNN模型分割时间减少了1.98%。最后将以CSP- ResNet50为主干的改进Mask R-CNN模型部署到采摘机器人上,在大型玻璃温室中开展不同成熟度番茄果实识别试验,该模型识别正确率达到90%。该研究在温室环境下对不同成熟度番茄果实具有较好的识别性能,可为番茄采摘机器人精准作业提供依据。  相似文献   

14.
樱桃番茄串生长姿态多样、果实成熟度不一,采摘机器人进行“粒收”作业时,常面临果梗干涉末端执行器、成熟度判断错误等问题,导致采摘效率低下、难以有效实现分级采收。针对上述问题,该研究提出一种级联视觉检测流程,包括采收目标检测、目标果实特性判别、果实与果梗位置关系判断3个关键环节。首先根据农艺要求按成熟度将番茄果实分为4个等级,引入YOLOv5目标检测模型对番茄串和番茄果实进行检测并输出成熟度等级,实现分期采收。然后对果实与果梗的相对位置进行判断,利用MobileNetv3网络模型对膨胀包围盒进行果实与果梗相对位置关系判断,实现末端执行器采摘位姿控制。日光温室实际测试结果表明,本文提出的级联检测系统平均推理用时22ms,在IOU(intersectionoverunion)阈值为0.5的情况下,樱桃番茄串与果实的平均检测精度达到89.9%,满足采摘机器人的视觉检测精度和实时性要求,相比末端执行器以固定角度靠近待采目标的方法,本文方法采收效率提升28.7个百分点。研究结果可为各类果蔬采摘机器人研究提供参考。  相似文献   

15.
采用改进YOLOv4-tiny的复杂环境下番茄实时识别   总被引:7,自引:7,他引:0  
实时识别番茄的成熟度是番茄自主采摘车的关键功能。现有目标识别算法速度慢、对遮挡番茄和小番茄识别准确率低。因此,该研究提出一种基于改进YOLOv4-tiny模型的番茄成熟度识别方法。在头部网络(Head network)部分增加一个76×76的检测头(y3)来提高小番茄的识别准确率。为了提高被遮挡番茄的识别准确率,将卷积注意力模块(Convolution Block Attention Module,CBAM)集成到YOLOv4-tiny模型的骨干网络(Backbone network)部分。在深层卷积中使用Mish激活函数替代ReLU激活函数以保证提取特征的准确性。使用密集连接的卷积网络(Densely Connected Convolution Networks, DCCN)来加强全局特征融合,并建立红风铃番茄成熟度识别的数据集。试验结果表明,与YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m和YOLOv5l模型相比,改进YOLOv4-tiny-X模型的平均精度均值(mean Average Precision, mAP)分别提高了30.9、0.2、0.7、5.4和4.9个百分点,在Nvidia GTX 2060 GPU 上达到111帧/s的速度,平均精度均值达到97.9%。不同模型的实时测试可视化结果表明,改进模型能够有效解决遮挡和小番茄识别准确率低的问题,可为番茄采摘车研制提供参考。  相似文献   

16.
温室绿熟番茄机器视觉检测方法   总被引:3,自引:3,他引:3  
针对基于可见光图像对绿色番茄进行识别过程中,光线不均造成的阴影等会影响果实的识别、枝干和叶片对果实的遮挡以及果实之间的遮挡对果实识别的影响等难题,该文对基于机器视觉的绿色番茄检测方法进行研究。首先通过快速归一化互相关函数(FNCC,fast normalized cross correlation)方法对果实的潜在区域进行检测,再通过基于直方图信息的区域分类器对果实潜在区域进行分类,判别该区域是否属于绿色果实,并对非果实区域进行滤除,估计果实区域的个数。与此同时,基于颜色分析对输入图像进行分割,并通过霍夫变换圆检测绿色果实的位置。最终对基于FNCC和霍夫变换圆检测方法的检测结果进行融合,实现对绿色番茄果实的检测。当绿色果实和红色果实同时存在时,将绿色果实检测结果与基于局部极大值法和随机圆环变换检测圆算法的红色番茄果实检测结果进行合并。算法通过有机结合纹理信息、颜色信息及番茄的形状信息,对绿色番茄果实进行了检测,解决了绿色番茄与叶子、茎秆等背景颜色接近等难题。文中共使用了70幅番茄图像,其中35幅图像作为训练集图像,35幅作为验证集图像。所提出算法对训练集图像中的83个果实的检测正确率为89.2%,对验证集图像中105个果实的检测正确率为86.7%,为番茄采摘机器人采摘红色和绿色成熟番茄奠定了基础。  相似文献   

17.
快速精准识别棚内草莓的改进YOLOv4-Tiny模型   总被引:5,自引:5,他引:0  
为了实现棚内草莓果实的快速精准识别,该研究提出一种基于改进YOLOv4-Tiny的草莓检测模型。首先,为了大幅度减少模型计算量,采用轻量型网络GhostNet作为特征提取网络,并在GhostBottleneck结构中嵌入卷积注意力模块以加强网络的特征提取能力;其次,在颈部网络中添加空间金字塔池化模块和特征金字塔网络结构,融合多尺度特征提升小目标草莓的检测效果;最后,采用高效交并比损失作为边界框回归损失函数,加速网络收敛并提高模型的检测准确率。结果表明,改进YOLOv4-Tiny模型权重大小仅为4.68 MB,平均每幅图片的检测时间为5.63 ms,在测试集上的平均精度均值达到92.62%,相较于原YOLOv4-Tiny模型提升了5.77个百分点。与主流的目标检测模型SSD、CenterNet、YOLOv3、YOLOv4和YOLOv5s相比,改进YOLOv4-Tiny模型平均精度均值分别高出9.11、4.80、2.26、1.22、1.91个百分点,并且模型权重大小和检测速度方面均具有绝对优势,该研究可为后续果实智能化采摘提供技术支撑。  相似文献   

18.
基于显著性检测与改进Hough变换方法识别未成熟番茄   总被引:10,自引:10,他引:0  
通过自动识别自然环境下获取果实图像中的未成熟果实,以实现自动化果实估产的目的。该文以番茄为对象,根据视觉显著性的特点,提出了使用基于密集和稀疏重构(dense and sparse reconstruction,DSR)的显著性检测方法检测未成熟番茄果实图像,该方法首先计算密集和稀疏重构误差;其次使用基于上下文的重构误差传播机制平滑重构误差和提亮显著性区域;再通过多尺度重构误差融合与偏目标高斯细化;最后通过贝叶斯算法融合显著图得到DSR显著灰度图。番茄DSR灰度图再经过OTSU算法进行分割和去噪处理,最终使用该文提出的改进随机Hough变换(randomized hough transform,RHT)圆检测方法识别番茄果簇中的单果。结果显示,该文方法对未成熟番茄果实的正确识别率能达到77.6%。同时,该文方法与人工测量的圆心和半径的相关系数也分别达到0.98和0.76,研究结果为估产机器人的多种果实自动化识别提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号