全文获取类型
收费全文 | 124篇 |
免费 | 2篇 |
国内免费 | 57篇 |
专业分类
农学 | 1篇 |
基础科学 | 94篇 |
43篇 | |
综合类 | 40篇 |
农作物 | 1篇 |
畜牧兽医 | 3篇 |
植物保护 | 1篇 |
出版年
2024年 | 1篇 |
2023年 | 1篇 |
2022年 | 5篇 |
2021年 | 6篇 |
2020年 | 4篇 |
2019年 | 10篇 |
2018年 | 15篇 |
2017年 | 4篇 |
2016年 | 8篇 |
2015年 | 8篇 |
2014年 | 9篇 |
2013年 | 8篇 |
2012年 | 10篇 |
2011年 | 10篇 |
2010年 | 7篇 |
2009年 | 8篇 |
2008年 | 5篇 |
2007年 | 9篇 |
2006年 | 16篇 |
2005年 | 6篇 |
2004年 | 4篇 |
2003年 | 1篇 |
2002年 | 2篇 |
2001年 | 8篇 |
1998年 | 3篇 |
1997年 | 1篇 |
1996年 | 1篇 |
1995年 | 4篇 |
1994年 | 2篇 |
1993年 | 2篇 |
1992年 | 4篇 |
1986年 | 1篇 |
排序方式: 共有183条查询结果,搜索用时 31 毫秒
1.
肉牛体形参数计算机视觉检测 总被引:1,自引:0,他引:1
利用数字图像处理技术,对肉牛体形参数计算机视觉检测技术进行了研究。用基于色度的阈值分割算法对图像进行分割,对自然条件下获取的肉牛图像进行了分析和检测,对选择的特征参数进行了测量。试验表明,应用计算机视觉技术测量肉牛体形参数是可行的。在测量的6个特征参数中,最大平均相对误差为2.73%。 相似文献
2.
3.
4.
5.
基于热红外成像与骨架树模型的奶牛眼温自动检测 总被引:1,自引:0,他引:1
针对现有方法无法实现奶牛热红外图像中眼温信息自动获取的问题,为实现奶牛眼温无接触、自动、高精确检测,提出了一种基于热红外成像技术与骨架树模型的奶牛眼温自动检测方法。首先,在获得奶牛侧面热红外图像的基础上,利用基于差距度量的阈值分割方法提取奶牛目标,对奶牛骨架进行精确提取,并构建了奶牛骨架树模型,在该模型上对奶牛头部区域进行准确定位;然后,根据头部轮廓的形状特征与眼睛几何位置特征,对奶牛眼睛区域中心点进行准确定位;最后,以眼睛中心点为圆心,以半径为20像素区域内的最高温度作为眼睛温度,对奶牛热红外图像中眼温进行自动检测。为验证本文方法的有效性,随机选取来自50头奶牛的100幅侧视热红外图像进行了试验,结果表明,采用本文方法检测结果的平均绝对误差为0.35℃、平均相对误差为0.38%,具有较高的精度。本研究可为奶牛体温非接触、自动化、高精度检测提供技术支撑。 相似文献
6.
针对奶牛养殖场复杂环境下多目标奶牛嘴部自动跟踪及反刍监测的困难,该研究提出了一种基于嘴部区域跟踪的多目标奶牛反刍行为智能监测方法。在YOLOv4模型识别奶牛嘴部上下颚区域的基础上,以Kalman滤波和Hungarian算法跟踪上颚区域,并对同一奶牛目标的上颚和下颚区域进行关联匹配获取嘴部咀嚼曲线,以此获取反刍相关信息,从而实现多目标奶牛个体的嘴部跟踪和反刍行为监测;为解决奶牛快速摆头运动和棚舍栏杆遮挡引发奶牛标号变化的问题,提出未匹配跟踪框保持及扩大的方法。采集并选择实际养殖场环境下的反刍奶牛视频66段,对其中58段视频采取分帧操作得到图像,制作YOLOv4模型数据集,以其余8段视频验证跟踪方法和反刍行为判定方法的有效性。试验结果表明,YOLOv4模型对奶牛嘴部上颚、下颚区域的识别准确率分别为93.92%和92.46%;改进的跟踪算法可实现复杂环境下多目标奶牛嘴部区域的稳定跟踪,且有效解决了栏杆遮挡、快速摆头运动造成的奶牛标号变化现象,上下颚匹配率平均为99.89%,跟踪速度平均为31.85帧/s;由反刍行为判定方法获取的咀嚼次数正确率的平均值为96.93%,反刍时长误差的平均值为1.48 s。该研究可为实际养殖中多目标奶牛反刍行为的智能监测和分析提供参考,也可供其他群体动物运动部位的跟踪和行为监测借鉴。 相似文献
7.
为了更好地实现不同光照条件下的农作物图像融合,在Contourlet变换(contourlet transform,CT)的基础上采用了适合农作物图像的融合规则进行了融合处理。首先,采用Contourlet变换对源图像进行多尺度、多方向分解,得到低频子带系数和带通方向子带系数。然后,针对低频子带系数的选择,采用了一种改进的线性加权融合方法,以期减小噪声对融合结果的影响;针对带通方向子带系数的选择,结合人眼视觉特性,采用了一种基于梯度最大化规则的系数选择方案,得到待融合图像的系数。最后,经过Contourlet逆变换得到融合图像。与小波变换方法(wavelet transform,WT)进行了融合结果的比较,结果表明,与WT方法相比,该文方法在互信息量(mutual information,MI)、空间频率(spatial frequency,SF)、均方差(mean square error,MSE)、信息熵(entropy,Ent)、相关系数(correlation coefficient,CC)、平均梯度(average gradient,G’)和峰值信噪比(peak signal to noise ratio,PSNR)指标上均有了较大提升,表明利用该方法可以取得优于WT的融合效果;在此基础上,利用CT常见融合规则与文中融合规则进行了比较,同样表明CT方法可以有效提高图像融合的效果。研究表明,将文中所采用的融合规则应用于不同光照条件下的农作物图像融合是有效的、可行的。该研究可为变光照条件下的作物图像融合技术提供参考。 相似文献
8.
9.
基于机器视觉的奶牛发情行为自动识别方法 总被引:3,自引:0,他引:3
及时检测奶牛发情、适时人工授精、减少空怀奶牛,是奶牛养殖场增加产奶量的关键手段。针对基于运动量和体温等体征的接触式奶牛发情识别方法会造成奶牛应激反应且识别准确率不高的问题,提出了一种非接触式奶牛发情行为自动识别方法。该方法首先使用改进的高斯混合模型实现运动奶牛目标检测,然后基于颜色和纹理信息去除干扰背景,再利用AlexNet深度学习网络训练奶牛行为分类网络模型,识别奶牛爬跨行为,最终实现对奶牛发情行为的自动识别。在供试数据集上的试验结果表明,本文方法对奶牛发情的识别准确率为100%,召回率为88.24%。本文方法可应用于奶牛养殖场的日常发情监测中,为生产管理提供辅助决策。 相似文献
10.
针对传统计算机视觉技术在苹果外部品质分级中准确率较低、鲁棒性较差等问题,提出了基于深度学习的苹果外观分级方法(多卷积神经网络融合DXNet模型)。首先,在延安市超市、果园等场所实地拍摄不同外观等级的苹果图像15000幅,并进行人工标记,建立了外部品质信息覆盖度广、样本量大的苹果图像数据库;然后,在对比分析经典卷积网络模型的基础上,采用模型融合的方式对经典模型进行优化改进,抽取经典模型卷积部分进行融合,作为特征提取器,共享全连接层用作分类器,并采用批归一化和正则化技术防止模型过拟合。试验评估采用15000幅图像进行训练、4500幅图像进行测试,结果表明,DXNet模型的分级准确率高于经典模型,分级准确率达到97.84%,验证了本文方法用于苹果外部品质分级的有效性。 相似文献