首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   2篇
  免费   0篇
综合类   2篇
  2023年   1篇
  2022年   1篇
排序方式: 共有2条查询结果,搜索用时 0 毫秒
1
1.
【目的】针对在复杂环境背景中难以识别分割多只肉鸡的问题,探讨基于深度学习实现对多只肉鸡深度图像分割的方法。【方法】利用深度相机,通过不同的拍摄角度(俯视、正视、侧视)在自然环境下采集肉鸡不同姿势(站立、俯卧、抬头、低头等)形态的深度图像,并使用CVAT标注软件对深度图像进行精确标注,建立肉鸡深度图数据集(含4 058张深度图像)。利用FCN、U-Net、PSPNet、DeepLab和Mask R-CNN等5种神经网络实现肉鸡深度图像的识别与分割,根据测试集得到预测结果,比较与评估不同模型的性能,实现对肉鸡深度图像的识别与分割。【结果】基于Mask R-CNN神经网络模型的识别分割准确率为98.96%,召回率为97.78%,调和平均数为95.03%,交并比为94.69%,4个指标值均为5个模型中的最优值。【结论】基于Mask R-CNN神经网络的算法简单快速,且能准确实现肉鸡的自动识别与分割,对肉鸡遮挡有较佳的鲁棒性,基本可以满足养殖场鸡群均匀度预测的识别分割要求。促进了计算机视觉在现代农业的应用,可为鸡群计数、鸡群均匀度预测以及肉鸡福利饲养等鸡场作业提供理论和实践基础。  相似文献   
2.
为解决三维扫描仪、多视图数据获取的三维点云因缺少语义信息导致难以从点云上判别植株器官部位问题,提出一种二维先验语义嵌入的大豆植株叶片三维语义建模方法:首先,基于Mask R-CNN模型对大豆叶片进行语义分割;然后,对分割结果和多视图数据进行立体重建融合学习,实现大豆植株叶片二维语义到三维叶片点云迁移,获得植株叶片点云语义信息,进而建立植株叶片三维语义模型。通过多组盆栽大豆植株试验对该模型进行验证,提取叶长和叶宽与人工实测数据进行对比分析,叶长和叶宽均方误差分别为2.53和1.52 mm,决定系数分别为0.97和0.89。结果表明,该方法能够便捷、精准地构建植株叶片三维语义模型。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号