全文获取类型
收费全文 | 4996篇 |
免费 | 287篇 |
国内免费 | 1310篇 |
专业分类
林业 | 600篇 |
农学 | 436篇 |
基础科学 | 909篇 |
1744篇 | |
综合类 | 2065篇 |
农作物 | 149篇 |
水产渔业 | 150篇 |
畜牧兽医 | 268篇 |
园艺 | 71篇 |
植物保护 | 201篇 |
出版年
2024年 | 83篇 |
2023年 | 242篇 |
2022年 | 290篇 |
2021年 | 332篇 |
2020年 | 292篇 |
2019年 | 282篇 |
2018年 | 221篇 |
2017年 | 295篇 |
2016年 | 326篇 |
2015年 | 277篇 |
2014年 | 283篇 |
2013年 | 344篇 |
2012年 | 414篇 |
2011年 | 364篇 |
2010年 | 344篇 |
2009年 | 296篇 |
2008年 | 253篇 |
2007年 | 318篇 |
2006年 | 272篇 |
2005年 | 216篇 |
2004年 | 171篇 |
2003年 | 111篇 |
2002年 | 111篇 |
2001年 | 75篇 |
2000年 | 56篇 |
1999年 | 51篇 |
1998年 | 49篇 |
1997年 | 26篇 |
1996年 | 28篇 |
1995年 | 25篇 |
1994年 | 26篇 |
1993年 | 30篇 |
1992年 | 21篇 |
1991年 | 21篇 |
1990年 | 16篇 |
1989年 | 18篇 |
1988年 | 5篇 |
1987年 | 4篇 |
1986年 | 1篇 |
1984年 | 1篇 |
1982年 | 1篇 |
1978年 | 2篇 |
排序方式: 共有6593条查询结果,搜索用时 15 毫秒
71.
采用改进CenterNet模型检测群养生猪目标 总被引:5,自引:4,他引:1
为实现对群养环境下生猪个体目标快速精准的检测,该研究提出了一种针对群养生猪的改进型目标检测网络MF-CenterNet(MobileNet-FPN-CenterNet)模型,为确保目标检测的精确度,该模型首先以无锚式的CenterNet为基础结构,通过引入轻量级的MobileNet网络作为模型特征提取网络,以降低模型大小和提高检测速度,同时加入特征金字塔结构FPN(Feature Pyramid Networks)以提高模型特征提取能力,在保证模型轻量化、实时性的同时,提高遮挡目标和小目标的检测精度。该研究以某商业猪场群养生猪录制视频作为数据源,采集视频帧1 683张,经图像增强后共得到6 732张图像。试验结果表明,MF-CenterNet模型大小仅为21 MB,满足边缘计算端的部署,同时对生猪目标检测平均精确度达到94.30%,检测速度达到69 帧/s,相较于Faster-RCNN、SSD、YOLOv3、YOLOv4目标检测网络模型,检测精度分别提高了6.39%、4.46%、6.01%、2.74%,检测速度分别提高了54、47、45、43 帧/s,相关结果表明了该研究所提出的改进型的轻量级MF-CenterNet模型,能够在满足目标检测实时性的同时提高了对群养生猪的检测精度,为生产现场端的群养生猪行为实时检测与分析提供了有效方法。 相似文献
72.
基于轻量型残差网络的自然场景水稻害虫识别 总被引:4,自引:3,他引:1
准确识别水稻害虫对水稻及时采取防护和治理措施具有重要意义,该研究以自然场景中水稻害虫图像为研究对象,针对水稻害虫图像的颜色纹理与背景相近以及同类害虫形态差异较大等特点,设计了一个由特征提取、全局优化以及局部优化模块构成的轻量型残差网络(Light Weight Residual Network,LW-ResNet)用于水稻害虫识别。在特征提取模块通过增加卷积层数以及分支数对残差块进行改进,有效提取自然场景中水稻害虫图像的深层全局特征并使用全局优化模块进行优化;局部优化模块通过设计轻量型注意力子模块关注害虫的局部判别性特征。LW-ResNet网络在特征提取模块减少了残差块的数量,在注意力子模块中采用深度可分离卷积减少了浮点运算量,从而实现了模型的轻量化。试验结果表明,所设计的LW-ResNet网络在13类水稻害虫图像的测试数据集上达到了92.5%的识别准确率,高于VGG16、ResNet、AlexNet等经典卷积神经网络模型,并且LW-ResNet网络的参数量仅为1.62×106个,浮点运算量仅为0.34×109次,低于MobileNetV3轻量级卷积神经网络模型。该研究成果可用于移动端水稻害虫的自动识别。 相似文献
73.
基于注意力机制及多尺度特征融合的番茄叶片缺素图像分类方法 总被引:4,自引:4,他引:0
针对番茄早期缺素性状不明显及各生长期特征差异较大所导致的特征区域尺寸不一致、难提取、难辩别等问题,提出了一种基于注意力机制及多尺度特征融合卷积神经网络的番茄叶片缺素图像分类方法(Multi-Scale Feature Fusion Convolutional Neural Networks Based On Atte ntion Mechanism,MSFF-AM-CNNs)。首先根据番茄叶片缺素特点提出了多尺度特征融合结构(Multi-Scale Feature Fusion Module,MSFF Module);其次在DenseNet基础上,结合浅层网络主要提取纹理、细节特征,深层网络主要提取轮廓、形状特征的特点分别提出具有针对性的特征提取方法,通过不同形式引入注意力机制及多尺度特征融合结构,使全局多尺度信息融合多个特征通道、选择性地强调信息特征并达到对特征精准定位的功能;同时引入Focal Loss函数以减少易分类样本的权重。试验结果表明,MSFF-AM-CNNs的平均召回率、平均F1得分、平均准确率较原模型DenseNet-121均大幅提升,其中缺氮和缺钾叶片的准确率分别提高了8.06和6.14个百分点,召回率分别提高了6.31和5.00个百分点,F1得分分别提高了7.25和5.55个百分点,平均识别准确率可达95.92%,具有较高的识别准确率及广泛的适用性,能够满足番茄叶片缺素图像的高精度分类需求,可为植物叶片缺素识别提供参考。 相似文献
74.
缺株玉米行中心线提取算法研究 总被引:1,自引:1,他引:0
无人驾驶农机自主进行行驶路径检测和识别系统需要具备环境感知能力。作物行的中心线识别是环境感知的一个重要方面,已有的作物行中心线识别算法在缺株作物行中心线提取中存在检测精度低的问题。该研究提出了一种能够在缺株情况下提取玉米作物行中心线的算法。首先采用限定HSV颜色空间中颜色分量范围的方法将作物与背景分割,通过形态学处理对图像进行去噪并填补作物行空洞;然后分别在图像底部和中部的横向位置设置条状感兴趣区(Region of Interest,ROI),提取ROI内的作物行轮廓重心作为定位点。在图像顶端间隔固定步长设置上端点,利用定位点和上端点组成的扫描线扫描图像,通过作物行区域最多的扫描线即为对应目标作物行的最优线;将获取的最优线与作物行区域进行融合填充作物行中的缺株部位;最后设置动态ROI,作物行区域内面积最大轮廓拟合的直线即为目标作物行中心线。试验结果表明,对于不同缺株情况下的玉米图像,该算法的平均准确率达到84.2%,每帧图像的平均检测时间为0.092 s。该研究算法可提高缺株情况下的作物行中心线识别率,具有鲁棒性强、准确度高的特点,可为无人驾驶农机在作物行缺株的农田环境下进行作业提供理论依据。 相似文献
75.
基于轻量级神经网络MobileNetV3-Small的鲈鱼摄食状态分类 总被引:1,自引:1,他引:0
在集约化水产养殖过程中,饲料投喂是控制养殖成本,提高养殖效率的关键。室外环境复杂多变且难以控制,适用于此环境的移动设备计算能力较弱,通过识别鱼类摄食状态实现智能投喂仍存在困难。针对此种现象,该研究选取了轻量级神经网络MobileNetV3-Small对鲈鱼摄食状态进行分类。通过水上摄像机采集水面鲈鱼进食图像,根据鲈鱼进食规律选取每轮投喂后第80~110秒的图片建立数据集,经训练后的MobileNetV3-Small网络模型在测试集的准确率达到99.60%,召回率为99.40%,精准率为99.80%,F1分数为99.60%。通过与ResNet-18, ShuffleNetV2和MobileNetV3-Large深度学习模型相比,MobileNetV3-Small模型的计算量最小为582 M,平均分类速率最大为39.21帧/s。与传统机器学习模型KNN(K-Nearest Neighbors)、SVM(Support Vector Machine)、GBDT(Gradient Boosting Decision Tree)和Stacking相比,MobileNetV3-Small模型的综合准确率高出12.74、23.85、3.60和2.78个百分点。为进一步验证该模型有效性,在室外真实养殖环境进行投喂试验。结果显示,与人工投喂相比,基于该分类模型决策的鲈鱼投喂方式的饵料系数为1.42,质量增加率为5.56%。在室外真实养殖环境下,MobileNetV3-Small模型对鲈鱼摄食状态有较好的分类效果,基于该分类模型决策的鲈鱼投喂方式在一定程度上能够代替养殖人员进行决策,为室外集约化养殖环境下的高效智能投喂提供了参考。 相似文献
76.
为提高诱虫板图像蔬菜害虫检测精度,针对背景区域容易导致误检的问题基于显著图分析技术构建了一种注意力深度网络害虫智能视觉检测方法。首先通过显著图筛选出粗候选区域;然后在粗候选区域内用全卷积神经网络精选出细候选区域;接着用神经网络分类器识别细候选区域害虫种类,得到含有冗余的若干检测框;最后用改进的非极大值抑制消除冗余检测框,实现诱虫板图像中目标害虫的检测。针对小菜蛾和瓜实蝇展开试验,获得86.4%的平均精度均值和0.111只的平均绝对计数误差均值,所提方法平均精度均值比Faster R-CNN和YOLOv4分别高2.74和1.56个百分点,平均绝对计数误差均值比Faster R-CNN和YOLOv4分别低0.006和0.003只;同时,消融试验中移除显著图注意力模块后平均精度均值下降了4个百分点、平均绝对计数误差均值增加了0.207只。试验结果表明,所提方法有效提高了诱虫板图像蔬菜害虫检测精度,其中,引入显著图注意力模块对提升检测精度有重要作用。 相似文献
77.
混流式水轮机部分负荷叶道空化涡不稳定特性已成为制约水电与其他可再生能源多能互补发展、扩大水轮机稳定运行范围急需研究的技术难题。该研究以HL702低水头混流式模型水轮机为研究对象,通过非稳态数值模拟技术及涡流可视化试验,对部分负荷工况下的叶道空化涡不稳定涡流演化及压力脉动特性展开研究。结果表明,叶道空化涡在水轮机转轮内为一个体积周期性变化的动态过程,其涡结构脉动主频为转轮转频的1.1倍。叶道空化涡诱发时,水轮机转轮叶片压力面和吸力面均捕捉到与涡结构频率相同的压力脉动信号。叶道空化涡体积的变化主要发生在转轮叶片背面出水边与下环交界附近,引起压力脉动幅值的局部放大。进一步分析发现,叶道空化涡发生工况下水轮机内部的瞬时压力脉动信号与空泡体积加速度成正比,表明涡流演化是引起压力脉动幅值上升的重要原因。研究进一步阐明了部分负荷工况叶道空化涡的演化特征,揭示了涡流诱发不稳定高振幅压力脉动的内在机制。 相似文献
78.
匹配点云结合HSI色彩分量的无人机RGB影像信息提取方法 总被引:1,自引:0,他引:1
无人机通常搭载可见光波段传感器获取红-绿-蓝(Red-Green-Blue,RGB)影像,由于无人机RGB影像波段较少,影像的地物信息提取存在一定难度。该研究提出了一种匹配点云结合色调-饱和度-亮度(Hue-Saturation-Intensity,HSI)空间色彩分量的无人机RGB影像信息提取方法。首先以饱和度分量和红光波段构造了饱和度与红光比值指数,再结合可见光波段差异植被指数以及由匹配点云获得的地形特征对研究区正射影像进行分类。试验结果表明,本文方法的总体分类精度达到了91.11%,Kappa系数为0.895,证明匹配点云结合HSI空间色彩分量的方法提取无人机RGB影像信息是可行的,提取结果具有较高精度。相较于基于光谱特征的传统方法,本文方法引入匹配点云可以简单高效地提取影像中高程差异明显的地物,同时,结合HSI色彩分量能够有效弥补无人机RGB影像光谱特征较少的不足。 相似文献
79.
基于迁移学习的葡萄叶片病害识别及移动端应用 总被引:7,自引:6,他引:1
为解决已有的卷积神经网络在小样本葡萄病害叶片识别的问题中出现的收敛速度慢,易产生过拟合现象等问题,提出了一种葡萄叶片病害识别模型(Grape-VGG-16,GV),并针对该模型提出基于迁移学习的模型训练方式。将VGG-16网络在ImageNet图像数据集上学习的知识迁移到本模型中,并设计全新的全连接层。对收集到的葡萄叶片图像使用数据增强技术扩充数据集。基于扩充前后的数据集,对全新学习、训练全连接层的迁移学习、训练最后一个卷积层和全连接层的迁移学习3种学习方式进行了试验。试验结果表明,1)迁移学习的2种训练方式相比于全新学习准确率增加了10~13个百分点,并在仅训练25轮达到收敛,该方法有效提升了模型分类性能,缩短模型的收敛时间;2)数据扩充有助于增加数据的多样性,并随着训练次数的增加,训练与测试准确率同步上升,有效缓解了过拟合现象。在迁移学习结合数据扩充的方式下,所构建的葡萄叶片病害识别模型(GV)对葡萄叶片病害的识别准确率能达到96.48%,对健康叶、褐斑病、轮斑病和黑腐病的识别准确率分别达到98.04%、98.04%、95.83%和94.00%。最后,将最终的研究模型部署到移动端,实现了田间葡萄叶片病害的智能检测,为葡萄病害的智能诊断提供参考。 相似文献
80.
融合2D-3D卷积特征识别哺乳母猪姿态转换 总被引:2,自引:2,他引:0
母猪姿态转换影响仔猪存活率,且动作幅度与持续时间存在差异,准确识别难度大。该研究提出一种融合2D-3D卷积特征的卷积网络(2D+3D-CNet,2D+3D Convolutional Network)识别深度图像母猪姿态转换。以视频段为输入,引入注意力机制SE模块和3D空洞卷积,以提升3D卷积网络姿态转换的时空特征提取能力,用2D卷积提取母猪的空间特征;经特征融合后,动作识别分支输出母猪转换概率,姿态分类分支输出4类姿态概率,结合这两个输出结果识别8类姿态转换,减少了人工标注数据集的工作量;最后设计动作分数,优化母猪姿态转换的时间定位。在测试集上,2D+3D-CNet姿态转换识别精度为97.95%、召回率为91.67%、测试速度为14.39帧/s,精度、召回率和时间定位精度均高于YOWO、FRCNN-HMM和MOC-D方法。该研究结果实现了母猪姿态转换高精度识别。 相似文献