首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 281 毫秒
1.
质心跟踪视频棉花行数动态计数方法   总被引:5,自引:5,他引:0  
为了实现无人植保车在棉田全覆盖视觉导航,该文提出了一种基于视频的棉花行动态计数方法,将棉花行数作为植保车直线植保作业行驶到田端后,判断2个直线作业区间隔距离的依据,以适应实际作业环境中不同的棉花种植行距。通过2G-R-B将彩色图像转化为灰度图像,强调了棉花行信息;通过在坐标系中设置固定位置和大小的关注区域,在减小计算量的同时,有效避免了田端缺苗、棉花行不规则等现象对检测结果造成的影响;通过对关注区域内各列灰度累计曲线的波峰筛选,适应3个生长期的棉花行的定位,识别正确率高于85%;通过设置浮动窗口并求其灰度质心为跟踪目标,提高了不同生长期和不同农田环境下的目标识别和跟踪适应性;通过对质心构建目标窗口,并计算前后帧目标窗口在图像坐标系中所在位置的重叠率,将后一帧目标窗口遍历前一帧图像中的目标窗口,关联重叠率0.1的目标窗口,实现了视频图像中多个棉花行的跟踪。结果表明:该算法对于不同生长期的棉花行有较好的跟踪效果,对田端缺苗、杂草等农田环境有较好的鲁棒性。每帧图像的平均处理时间为150 ms,能够满足实时处理要求。  相似文献   

2.
玉米行间导航线实时提取   总被引:10,自引:7,他引:3  
针对高地隙植保机底盘玉米田间植保作业压苗严重的现象,该研究提出了基于车轮正前方可行走动态感兴趣区域(Region of Interest,ROI)的玉米行导航线实时提取算法。首先将获取的玉米苗带图像进行像素归一化,采用过绿算法和最大类间方差法分割玉米与背景,并通过形态学处理对图像进行增强和去噪;然后对视频第1帧图像应用垂直投影法确定静态ROI区域,并在静态ROI区域内利用特征点聚类算法拟合作物行识别线,基于已识别的玉米行识别线更新和优化动态ROI区域,实现动态ROI区域的动态迁移;最后在动态ROI区域内采用最小二乘法获取高地隙植保机底盘玉米行间导航线。试验表明,该算法具有较好的抗干扰性能,能够很好地适应较为复杂的田间环境,导航线提取准确率为96%,处理一帧分辨率为1 920像素×1 080像素图像平均耗时97.56 ms,该研究提出的算法能够为高地隙植保机车轮沿玉米垄间行走提供可靠、实时的导航路径。  相似文献   

3.
基于支持向量机的玉米根茬行图像分割   总被引:2,自引:2,他引:0  
玉米根茬行的准确识别是实现玉麦轮作机器视觉式小麦自动对行免耕播种技术的前提。针对华北一年两熟区联合收获机玉米留茬收获后根茬行较难准确分割的问题,该研究以直立玉米根茬为研究对象,提出一种基于支持向量机(Support Vector Machine,SVM)的玉米根茬行分割方法。首先,利用主成分分析(Principal Components Analysis,PCA)对提取的目标(直立根茬)与背景(行间秸秆及裸露地表)的颜色和纹理特征进行分析,优选出21个特征,构成特征向量作为训练直立根茬SVM识别模型的输入;然后,根据图像坐标设置图像中间包含完整玉米根茬行的矩形区域为感兴趣区域(Region of Interest,ROI);最后,使用训练好的直立根茬SVM识别模型以25×25(像素)的窗口在ROI内滑动检测,采用阈值法分割根茬行并通过形态学处理优化得到最终的玉米根茬行二值图像。利用在农业农村部河北北部耕地保育农业科学观测实验站采集的100幅玉米根茬行图像进行试验,结果表明,本文方法对于不同行间秸秆覆盖量和不同光照条件下的根茬行分割表现出较好的准确性和鲁棒性,直立根茬平均识别准确率、平均分割准确率、平均召回率、平均分割准确率和平均召回率的加权调和平均值(F1avr值)分别为93.8%、93.72%、92.35%和93.03%,每幅图像的平均分割时间为0.06 s,具有较好的实时性。基于SVM的分割方法可实现联合收获机玉米留茬收获后根茬行图像的分割,为下一步检测玉米根茬行直线并将其作为导航基准线进行视觉导航的研究提供良好基础。  相似文献   

4.
基于近邻法聚类和改进Hough算法的猪胴体背膘厚度检测   总被引:3,自引:3,他引:0  
为了解决猪胴体背膘厚度在人工测量中准确率、效率低以及存在对样本造成污染的问题,该文基于计算机视觉和图像处理技术提出一种检测背膘厚度的算法。算法主要分成背膘部分检测和测量部位的直线检测。前者通过图像分割、特征点的检测以及漫水填充等方法实现,能准确提取猪胴体背膘部分。后者在图像预处理后,首先通过感兴趣区域(region of interest,ROI)提取猪胴体肋排区域;然后利用设定好的浮动窗口进行全幅图像的扫描,通过平滑后的平均灰度线特征提取肋骨的目标像素点;最后,基于近邻法利用目标像素点间的邻近关系对其进行聚类,找到胴体第6、7根肋骨,并采用基于已知点的Hough变换提取测量直线,将测量部位的直线映射到背膘部分,则可实现对猪胴体背膘厚度准确测量。试验结果表明,在对背膘厚度测量误差小于2 mm时,检测准确率可达92.31%,该文提出的方法能对猪胴体背膘厚度的测量位置进行准确定位和测量。  相似文献   

5.
为了实现孵化早期鸡胚雌雄识别,构建了机器视觉采集系统,在LED光源下获取180枚鸡种蛋孵化第4天的图像。首先对鸡种蛋图像进行RGB分量提取、中值滤波、感兴趣区域提取等预处理,然后利用限制对比度自适应直方图均衡化、形态学处理、最大类间方差阈值分割和八连通域去噪等方法凸显血线纹理,并通过方向梯度直方图(histogram of oriented gradient,HOG)提取图像的全信息特征和利用灰度共生矩阵提取能量、对比度、相关性、熵、均匀度等5个特征,对HOG全信息特征采用主成分分析(principal component analysis,PCA)降维,最后利用全信息特征和PCA降维特征-灰度共生矩阵特征组合的简化特征,分别构建支持向量机(support vector machine,SVM)、反向传递(back propagation,BP)神经网络、深度置信网络(deep belief networks,DBN)3种鸡胚雌雄识别模型,并比较不同模型的识别准确率。试验中,全信息特征比简化特征构建的模型识别准确率高,基于简化特征的BP、SVM、DBN模型测试集识别综合准确率分别为51.67%、60%和58.33%,基于全信息特征的BP、SVM、DBN模型测试集识别综合准确率分别为58.33%、63.33%和83.33%。其中,基于全信息特征的DBN模型识别准确率最高,达到83.33%。结果表明机器视觉技术为孵化早期鸡胚雌雄识别提供了一种可行方法。  相似文献   

6.
缺株玉米行中心线提取算法研究   总被引:1,自引:1,他引:0  
无人驾驶农机自主进行行驶路径检测和识别系统需要具备环境感知能力。作物行的中心线识别是环境感知的一个重要方面,已有的作物行中心线识别算法在缺株作物行中心线提取中存在检测精度低的问题。该研究提出了一种能够在缺株情况下提取玉米作物行中心线的算法。首先采用限定HSV颜色空间中颜色分量范围的方法将作物与背景分割,通过形态学处理对图像进行去噪并填补作物行空洞;然后分别在图像底部和中部的横向位置设置条状感兴趣区(Region of Interest,ROI),提取ROI内的作物行轮廓重心作为定位点。在图像顶端间隔固定步长设置上端点,利用定位点和上端点组成的扫描线扫描图像,通过作物行区域最多的扫描线即为对应目标作物行的最优线;将获取的最优线与作物行区域进行融合填充作物行中的缺株部位;最后设置动态ROI,作物行区域内面积最大轮廓拟合的直线即为目标作物行中心线。试验结果表明,对于不同缺株情况下的玉米图像,该算法的平均准确率达到84.2%,每帧图像的平均检测时间为0.092 s。该研究算法可提高缺株情况下的作物行中心线识别率,具有鲁棒性强、准确度高的特点,可为无人驾驶农机在作物行缺株的农田环境下进行作业提供理论依据。  相似文献   

7.
基于遗传算法和阈值滤噪的玉米根茬行图像分割   总被引:5,自引:5,他引:0  
作物行的识别是农业机械视觉导航系统的一项重要研究内容,针对华北一年两熟区玉米利用联合收获机留茬收获后,农田原始图像中背景目标多(行间秸秆、裸露地表等),且背景目标与玉米根茬颜色接近,难以实现玉米根茬行准确快速分割的问题,该文采用RGB颜色空间,以根茬顶端切口为目标,提出了一种基于遗传算法和阈值滤噪的玉米根茬行图像分割方法。首先,为了降低图像分割难度,选取图像中间位置包含一条完整玉米根茬行的矩形区域作为感兴趣区域(region of interest,ROI);然后,利用经过遗传算法优化得到的灰度化算子对ROI进行灰度化,采用单阈值法分割ROI;最后,通过形态学腐蚀处理去除孤立点、毛刺等误分割情况,同时利用基于连通域面积阈值和偏距阈值的滤噪方法滤除根茬行两侧噪声,实现玉米根茬行的有效分割。为评价该分割方法,利用从农业部河北北部耕地保育农业科学观测实验站采集到的200幅玉米根茬行图像进行试验。结果表明:该方法能够较好的适应晴天光照条件变化,从含有裸露地表、玉米行间秸秆等复杂背景下,准确快速地分割出玉米根茬行,平均相对目标面积误差率为24.68%,处理一幅1280像素×1 024像素的彩色图像平均耗时为0.16 s,具有较好的鲁棒性、实时性和准确性。研究结果验证了基于遗传算法和阈值滤噪方法实现玉米利用联合收获机留茬收获后根茬行图像分割的可行性,并为玉米根茬行直线检测提供良好的基础。  相似文献   

8.
融合动态机制的改进型Faster R-CNN识别田间棉花顶芽   总被引:4,自引:4,他引:0  
针对田间密植环境棉花精准打顶时,棉花顶芽因其小体积特性所带来识别困难问题,该研究提出一种改进型更快速区域卷积神经网络(Faster Region Convolutional Neural Networks,Faster R-CNN)目标检测算法实现大田环境棉花顶芽识别。以Faster R-CNN为基础框架,使用 RegNetX-6.4GF作为主干网络,以提高图像特征获取性能。将特征金字塔网络(Feature Pyramid Network,FPN)和导向锚框定位(Guided Anchoring,GA)机制相融合,实现锚框(Anchor)动态自适应生成。通过融合动态区域卷积神经网络(Dynamic Region Convolutional Neural Networks,Dynamic R-CNN)方法,实现训练阶段检测模型自适应候选区域(Proposal)分布的动态变化,以提高算法训练效果。最后在目标候选区域(Region of Interest,ROI)中引入目标候选区域提取器(Generic ROI Extractor,GROIE)提高图像特征融合能力。采集自然环境7种不同棉花材料总计4 819张图片,建立微软常见物体图像识别库2017(Microsoft Common Objects in Context 2017,MS COCO 2017)格式的棉花顶芽图片数据集进行试验。结果表明,该研究提出的方法平均准确率均值(Mean Average Precision,MAP)为98.1%,模型的处理速度(Frames Per Second,FPS)为10.3帧/s。其MAP在交并比(Intersection Over Union,IOU)为0.5时较Faster R-CNN、RetinaNet、Cascade R-CNN和RepPoints网络分别提高7.3%、78.9%、10.1%和8.3%。该研究算法在田间对于棉花顶芽识别具有较高的鲁棒性和精确度,为棉花精准打顶作业奠定基础。  相似文献   

9.
基于高光谱技术的菌落图像分割与计数   总被引:4,自引:4,他引:0  
在平板菌落计数过程中,菌落与背景区域类似的颜色会干扰菌落的准确计数。为了准确测定细菌数,该研究利用高光谱图像技术捕捉成分差异引起的菌落与背景区域光谱特征,并结合化学计量学方法对平板的菌落进行分割并实现计数。采集枯草芽孢杆菌菌落平板的高光谱图像,提取菌落、背景区域的高光谱信息;利用遗传算法结合最小二乘支持向量机建立菌落区域/背景区域判别模型;随后,将菌落平板高光谱图像中每一个像素点对应的光谱信息代入判别模型以判断属于菌落的区域,模型的识别率为97.22%;最后,利用特征波段下的高光谱图像实现菌落的分割及计数,计数平均相对误差值为4.2 %,用时约为10 min。相比较于计算机视觉计数法,菌落计数法的平均相对误差降低了49.4%,结果表明建立的方法有望成为一类新的准确平板菌落计数方法。  相似文献   

10.
基于高光谱图像的鸡种蛋孵化早期胚胎性别鉴定   总被引:3,自引:3,他引:0  
为了对鸡种蛋孵化早期胚胎进行性别鉴定,构建了高光谱图像采集系统,在400~1 000 nm范围内获取94枚种蛋孵化0~12 d的高光谱透射图像。分别在胚胎的圆头、中间、尖头3个部位选择感兴趣区域(region of interest,ROI),获取400~1 000 nm波段的响应信号,构建了支持向量机(support vector machine,SVM)、偏最小二乘判别分析(partial least squares discriminant analysis,PLSDA)和人工神经网络(artificial neural network,ANN)的鸡胚胎性别鉴定模型,并比较了不同孵化时间雌雄胚胎的鉴别准确率。试验结果表明,SVM模型、PLSDA模型和ANN模型均对孵化第10天种蛋中间部位检测效果最好。随后通过分析第10天种蛋中间部位光谱响应的差异,选取600~900 nm的光谱值构建胚胎性别鉴定模型,结果发现,3种模型的判别准确率均有上升,SVM模型和PLSDA模型预测集样本判别准确率均为75.00%,ANN模型预测集样本判别准确率达到82.86%。其中,ANN构建的种蛋孵化胚胎性别检测模型的整体效果优于SVM模型和PLSDA模型。结果表明高光谱图像技术在检测鸡种蛋孵化早期胚胎性别方面有一定效果,但种蛋蛋壳的个体差异会对鉴定准确率造成一定影响。  相似文献   

11.
基于GA-SVM模型的机采籽棉杂质识别   总被引:2,自引:2,他引:0  
针对中国机采棉加工过程中混级混轧、缺乏棉花参数检测的现状,提出使用遗传算法优化支持向量机参数的机采籽棉图像分割、杂质识别方法。在图像分割阶段,采用像素点邻域的色调、饱和度、亮度颜色特征与平均亮度、平均对比度、平滑度、三阶矩、一致性、熵等纹理特征构建特征向量,使用最优保留策略的遗传算法优化惩罚参数及核函数参数,建立图像分割SVM分类器;对杂质识别过程,在计算标记区域的颜色特征、纹理特征基础上,增加面积、周长、离心率、矩形度、形状因子等形状特征,使用遗传算法建立杂质识别SVM分类器。测试结果表明,该方法适用于边缘对比度低、纹理信息丰富的机采籽棉含杂图像分割,对杂质的有效识别率为92.6%。该研究为棉花加工设备的参数优化和国产采棉机的研制及优化提供重要参考依据。  相似文献   

12.
改进Otsu算法与ELM融合的自然场景棉桃自适应分割方法   总被引:6,自引:5,他引:1  
王见  周勤  尹爱军 《农业工程学报》2018,34(14):173-180
针对动态行进过程中拍摄的自然棉田场景图像的棉桃分割问题,提出了一种改进的自适应优化分割方法。首先利用改进的Otsu分割算法定位棉桃区域,对棉桃和背景区域像素点的RGB值分别采样;将样本用于训练ELM(extreme learning machine)分类模型;把图像分割转化为像素分类问题,用分类模型对棉桃图像进行像素分类以实现棉桃图像的分割。对晴天和阴天场景下自然棉田的图像进行了算法验证,能正确分割棉桃并定位棉桃位置,实现了非结构光环境下对棉桃的无监督的采样和分割定位,每幅图像的平均分割时间为0.58 s,晴天和阴天状况下棉桃的平均识别率分别达到94.18%和97.56%。将该算法与经典分类算法SVM(support vector machine)和BP在增加纹理特征和采用RGB特征的情况下进行对比,并分析了该算法在分割速度和识别率上都有较大优势的原因。试验证明该算法在棉桃分割中有很好的实时性、准确性和适应性,可为智能采棉机的棉桃识别算法提供参考。  相似文献   

13.
基于无人机可见光图像Haar-like特征的水稻病害白穂识别   总被引:3,自引:1,他引:2  
实现稻田精准植保的关键是自然环境下病变区域的准确识别。为实现大面积稻田中白穗的精确识别,该文提出一种小型多旋翼无人机水稻病害白穂识别系统,该系统以无人机平台作为图像采集、处理和识别的基础,首先对白穗图像提取Haar-like特征,其次以Adaboost 算法进行白穗训练识别。以4类Haar-like特征及其组合构建弱分类器,用采集的稻田白穗和背景共700个样本点训练生成强分类器。所得强分类器对测试集中65幅图像中的423个白穗样本点进行识别验证,结果表明:白穗识别率可达93.62%,误识别率为5.44%,该方法可有效抑制一般的稻叶遮挡、稻穗黏连以及光照等复杂背景的影响,适合于自然环境下的稻田白穗现场识别。  相似文献   

14.
黄土高原是世界上土壤侵蚀最为严重的地区之一,沟谷侵蚀是其最重要的研究课题。为了从地理学角度估算沟谷侵蚀量,以5m×5m分辨率的DEM为实验数据,运用传统地图制图学领域的等高线图形简化技术,结合现代GIS三维分析与数据挖掘方法,对陕西省安塞县马家沟流域典型样区进行了实验研究。结果表明,对构成沟谷部位的等高线几何图形实施简化,即相当于在实验条件下对沟谷实行了"虚拟填充",这种地形还原手法可用于模拟沟谷系统的形成和发展过程,对于探索单一沟谷或流域沟谷系统的长期演变过程,准确估算沟谷系统的侵蚀总量具有广泛的参考价值。  相似文献   

15.
Inherent poor soil fertility is one of the factors responsible for the low productivity of rainfed cotton (Gossypium hirsutum) grown on the vertisols of the Indian sub-continent. A conservation tillage system such as reduced tillage (RT) is one approach to improve soil conditions. Field studies were conducted over 5 years to evaluate RT systems and determine the effects of retaining cotton crop residues on growth and yield of cotton. Results indicated that the RT systems (RT1: two inter-row cultivations and RT2 with no inter-row cultivation) gave significantly greater seed cotton than the conventional tillage (CT) in the first 3 years. In the later 2 years, the differences were not significant. However, yield decline was noticed in RT2 where there was no soil disturbance due to the increased build up of dicot weeds. The effect of crop residue on seed cotton yield was significant in 1998–1999 and 2000–2001. Leaf amended (R1) and leaf+stalk amended (R3) yields were equal to the control (R0). Stalk alone amended (R2) plots had the least seed cotton yield. The RT plots, generally had greater plant dry matter and yield attributes (number of bolls per plant and seed cotton yield per plant) than CT plots during the first 3 years, which contributed to significant yield differences between RT and CT plots. Residue amended plots had significantly greater SOC than the control. Eliminating complete soil disturbance, as in RT2, may not be a viable option, because of increased weed density, especially dicot weeds. The RT1 comprising pre-plant herbicide application and one pass of harrow, and two inter-row cultivation for early season and late season weed control, respectively, is a viable option to cotton growers of the semi-arid tropics of India.  相似文献   

16.
为提高苹果采摘机器人的工作效率和环境适应性,使其能全天候的在不同光线环境下对遮挡、粘连和套袋等多种情况下的果实进行识别定位,该文提出了基于YOLOv3(you only look once)深度卷积神经网络的苹果定位方法。该方法通过单个卷积神经网络(one-stage)遍历整个图像,回归目标的类别和位置,实现了直接端到端的目标检测,在保证效率与准确率兼顾的情况下实现了复杂环境下苹果的检测。经过训练的模型在验证集下的m AP(meanaverageprecision)为87.71%,准确率为97%,召回率为90%,IOU(intersection over union)为83.61%。通过比较YOLOv3与Faster RCNN算法在不同数目、不同拍摄时间、不同生长阶段、不同光线下对苹果的实际检测效果,并以F1为评估值对比分析了4种算法的差异,试验结果表明YOLOv3在密集苹果的F1高于YOLOv2算法4.45个百分点,在其他环境下高于Faster RCNN将近5个百分点,高于HOG+SVM(histogram of oriented gradient+support vector machine)将近10个百分点。并且在不同硬件环境验证了该算法的可行性,一幅图像在GPU下的检测时间为16.69 ms,在CPU下的检测时间为105.21 ms,实际检测视频的帧率达到了60帧/s和15帧/s。该研究可为机器人快速长时间高效率在复杂环境下识别苹果提供理论基础。  相似文献   

17.
利用无人机可见光遥感影像提取棉花苗情信息   总被引:3,自引:3,他引:0  
为提高棉花苗情信息获取的时效性和精确性,该文提出了基于可见光遥感影像的棉花苗情提取方法。首先,利用自主搭建的低空无人机平台获取棉花3~4叶期高分辨率遥感影像,结合颜色特征分析和Otsu自适应阈值法实现棉花目标的识别和分割。同时,采用网格法去除杂草干扰后,提取棉花的形态特征构建基于SVM的棉株计数模型。最后,基于该模型提取棉花出苗率、冠层覆盖度及棉花长势均匀性信息,并绘制棉花出苗率、冠层覆盖度的空间分布图。结果显示,模型的测试准确率为97.17%。将模型应用于整幅影像,计算的棉花出苗率为64.89%,与真实值误差仅为0.89%。同时基于冠层覆盖度、变异系数分析了棉花长势均匀情况。该文提出的方法实现了大面积棉田苗情的快速监测,研究成果可为因苗管理的精细农业提供技术支持。  相似文献   

18.
为实现高分辨率遥感影像特征的有效组织优化,以及提高特征的可判别性,该文提出了基于中层特征学习的多特征软概率级联模型实现场景级土地利用分类。首先,提取影像的密集尺度不变转换特征(dense scale invariant feature transform,DSIFT)、光谱特征(spectral feature,SF)以及局部二值模式特征(local binary pattern,LBP)作为低层特征;然后由局部约束线性编码(locality-constraint linear coding,LLC)分别对DSIFT特征、SF特征以及LBP特征进行稀疏编码得到3种低层特征的稀疏系数,并结合空间金字塔匹配(spatial pyramidal matching,SPM)模型、最大空间平滑方法对稀疏系数进行优化,获得影像的中层特征表达;最后,利用SVM分类器,分别对3种低层特征的中层特征表达进行分类,并分别计算3种低层特征分类的软概率,级联3种特征的软概率将其作为图像最终的特征表达,利用SVM分类器进行第2次分类得到最终分类结果。采用UC-Merced Land Use数据集对该方法进行了验证,试验结果表明:1)该方法总体精度达到88.6%,相较于传统稀疏编码空间金字塔匹配(sparse coding and spatial pyramidal matching,Sc SPM),局部约束线性编码(locality-constraint linear coding,LLC)等分类方法,总体精度分别提高了12.7%,9.9%;2)相较于提取单一低层特征的场景分类方法,该文算法更有利于实现对影像中复杂且不易区分的地物的表达,可有效提高土地利用分类精度。  相似文献   

19.
基于粗糙集和BP神经网络的棉花病害识别   总被引:17,自引:10,他引:7  
为了提高棉花病害的识别率,提出了一种在自然环境条件下基于粗糙集和BP神经网络的棉花病害识别方法。该方法以轮纹病、角斑病、褐斑病和盲椿象为研究对象,将病害棉花图像从RGB颜色空间转换到HSI和L*a*b*颜色空间,应用Otsu算法对H分量、a*分量和b*分量进行阈值分割,通过H+a*+b*分量与原始图像的交集提取棉花病斑区域,利用颜色矩和灰度共生矩阵分别提取病斑的颜色和纹理特征,并结合粗糙集理论和BP神经网络,实现特征向量的优选,和棉花病害的识别。通过比较试验发现,粗糙集理论能有效减少特征维数,使提取的全部特征向量16个减少到5个,使BP神经网络的训练时间缩短到原来的1/4,且棉花病害平均识别正确率达到92.72%。研究结果表明,该方法准确识别了4种棉花病害,为棉花病害的防治提供了有效的技术支持。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号