首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 501 毫秒
1.
玉米行间导航线实时提取   总被引:10,自引:7,他引:3  
针对高地隙植保机底盘玉米田间植保作业压苗严重的现象,该研究提出了基于车轮正前方可行走动态感兴趣区域(Region of Interest,ROI)的玉米行导航线实时提取算法。首先将获取的玉米苗带图像进行像素归一化,采用过绿算法和最大类间方差法分割玉米与背景,并通过形态学处理对图像进行增强和去噪;然后对视频第1帧图像应用垂直投影法确定静态ROI区域,并在静态ROI区域内利用特征点聚类算法拟合作物行识别线,基于已识别的玉米行识别线更新和优化动态ROI区域,实现动态ROI区域的动态迁移;最后在动态ROI区域内采用最小二乘法获取高地隙植保机底盘玉米行间导航线。试验表明,该算法具有较好的抗干扰性能,能够很好地适应较为复杂的田间环境,导航线提取准确率为96%,处理一帧分辨率为1 920像素×1 080像素图像平均耗时97.56 ms,该研究提出的算法能够为高地隙植保机车轮沿玉米垄间行走提供可靠、实时的导航路径。  相似文献   

2.
基于中值点Hough变换玉米行检测的导航线提取方法   总被引:2,自引:2,他引:0  
为解决机器视觉对早期玉米苗带在多环境变量下导航线提取耗时长、准确率低的问题,该研究提出了一种基于中值点Hough变换作物行检测的导航线提取算法。首先,改进了传统的2G-R-B算法,再结合中值滤波、最大类间方差法和形态学操作实现土壤背景与玉米苗带的分割。其次,通过均值法提取玉米苗带特征点,然后采用中值点Hough变换拟合垄间两侧玉米苗列线,最后将检测出的双侧玉米苗列线为导航基准线,利用夹角正切公式提取导航线。试验结果表明:改进的灰度化算法能够正确分割玉米苗带与土壤,处理一幅640×480像素彩色图像平均耗时小于160 ms,基于中值点Hough变换检测玉米苗列再提取导航线的最大误差为0.53°,相比于传统Hough变换时间上平均快62.9 ms,比最小二乘法平均精确度提高了7.12°,在农田早期玉米苗带多环境变量影响因素下导航线提取准确率均达92%以上,具有较强的可靠性和准确性。  相似文献   

3.
自主导航是智能化农机完成收割作业的重要保障。该研究针对多云天气下光照易变化导致单一特征难以应对麦田环境的问题,提出基于多纹理特征融合的麦田收割边界检测方法。通过构建由图像熵特征和方向梯度特征组成的二维特征向量对麦田收割区域与未收割区域进行分类。其中,根据图像熵特征提取的特点,提出基于滑动窗口的直方图统计方法加速图像熵特征提取速度,较传统熵特征提取方法,本文方法耗时减少49.52%。在提取二维特征基础上,根据特征直方图分布特点,结合最大熵阈值分割算法对麦田图像进行初步分类,然后通过去除小连通区域对误分类区域进行剔除,进而运用Canny算子提取边缘轮廓点,得到分布于收割边界附近的待拟合点。最后,通过Ransac算法对拟合直线进行区域限制,得到较为准确的收割边界。试验结果表明,相比传统基于Adaboost集成学习算法提取收割边界,本文算法处理240像素×1 280像素的图像平均耗时为0.88 s,提速约73.89%;在不同光照条件下,收割边界平均检测率为89.45%,提高47.28个百分点,其中弱光照下检测率为90.41%,提高46.19个百分点,局部强光照下检测率为88.26%,提高46.00个百分点,强光照下检测率为89.68%,提高49.64个百分点。研究结果可为田间农机导航线识别提供参考。  相似文献   

4.
玉米苗带准确检测与精准跟踪是玉米除草机器人实现自主作业的重要基础。针对玉米除草机器人苗带检测,该研究提出了基于感兴趣区域更新的玉米苗带实时识别及导航线提取方法,首先利用单目相机采集机器人前向玉米苗带,将苗带图像进行归一化和超绿处理,采用改进自适应响应阈值SUSAN(small univalue segment assimilating nucleus)角点法以及冗余离群特征点剔除法获得玉米苗特征点,以改进的顺序聚类算法对视频帧进行玉米苗带聚类处理,再利用最小二乘法拟合出各玉米苗带,最后基于机器人航向偏差和其相对玉米苗带的横向偏差实时调整感兴趣区域和更新导航线;同时,针对除草机器人苗带行线跟踪,提出以运动学为模型的PID(proportionintegrationdifferentiation)转向角决策方法,建立了导航跟踪控制模型;并在Visual Studio平台下,利用OpenCV库开发了导航控制系统。试验结果表明,玉米除草机器人导航线提取准确率为96.8%,每帧图像平均处理时间为87.39ms,具有较好的实时性和抗干扰性;在模拟环境下,玉米苗带直线和曲线跟踪平均误差≤1.42 c...  相似文献   

5.
玉米苗期杂草的计算机识别技术研究   总被引:14,自引:5,他引:14  
利用计算机视觉技术和人工神经网络技术对识别玉米苗期田间杂草进行了研究。首先利用类间方差最大自动阈值法二值化杂草图像的超绿特征,再进行连续腐蚀与膨胀,然后根据长宽比、圆度、第一不变矩3个形状特征由BP网络识别出玉米幼苗,最后利用种子填充法从阈值分割结果中擦除玉米目标,剩余的就是杂草目标。研究表明,基于BP网络的杂草识别算法对玉米幼苗与杂草的正确识别率分别为87.5%和93.0%,处理一幅640×480像素的杂草图像平均耗时约为58 ms。  相似文献   

6.
矮化密植枣园收获作业视觉导航路径提取   总被引:8,自引:8,他引:0  
针对矮化密植枣园环境的复杂性,提出一种基于图像处理的枣园导航基准线生成算法。选用B分量图进行处理,提出"行阈值分割"方法分割树干与背景;根据拍摄场景及视角提出"行间区域"方法剔除行间噪声;通过统计树干与地面交点位置分布区域选取图像五分之二向下区域进行处理;依据树干纵向灰度分布规律,采用浮动窗口灰度垂直投影方法结合形态学开闭运算提取树干区域;基于枣园行间线性分布特征引入"趋势线",而后利用点到直线的距离与设定阈值作比较选取树干与地面的交点;利用交点的位置分布将其归类,并采用最小二乘法原理拟合左右两侧边缘,提取边缘线上各行的几何中心点生成枣园导航基准线。通过对阴天、晴天、顺光、逆光、噪声多元叠加5种条件进行试验,结果表明,该算法具有一定的抗噪性能,单一工况条件导航基准线生成准确率可达83.4%以上,多工况条件准确率为45%。针对5种工况条件的视频检测,结果表明,单一工况条件算法动态检测准确率可达81.3%以上,每帧图像处理平均耗时低于1.7 s,多工况条件检测准确率为42.3%,每帧图像平均耗时1.0 s。该研究可为矮化密植果园实现机器人自主导航作业提供参考。  相似文献   

7.
针对目前在茶园垄间导航路径识别存在准确性不高、实时性差和模型解释困难等问题,该研究在Unet模型的基础上进行优化,提出融合Unet和ResNet模型优势的Unet-ResNet34模型,并以该模型所提取的导航路径为基础,生成路径中点,通过多段三次B样条曲线法拟合中点生成茶园垄间导航线。该研究在数据增强后的茶园垄间道路训练集中完成模型训练,将训练完成的模型在验证集进行导航路径识别,根据梯度加权类激活映射法解释模型识别过程,可视化对比不同模型识别结果。Unet-ResNet34模型在不同光照和杂草条件下导航路径分割精度指标平均交并比为91.89%,能够实现茶园垄间道路像素级分割。模型处理RGB图像的推理速度为36.8 帧/s,满足导航路径分割的实时性需求。经过导航线偏差试验可知,平均像素偏差为8.2像素,平均距离偏差为0.022 m,已知茶园垄间道路平均宽度为1 m,道路平均距离偏差占比2.2%。茶园履带车行驶速度在0~1 m/s之间,单幅茶垄图像平均处理时间为0.179 s。研究结果能够为茶园视觉导航设备提供技术和理论基础。  相似文献   

8.
基于卷积神经网络提取多尺度分层特征识别玉米杂草   总被引:13,自引:10,他引:3  
为提高作物与杂草识别的准确率、稳定性和实时性,该文以幼苗期玉米及杂草为研究对象,提出了基于卷积神经网络提取多尺度分层特征的玉米杂草识别方法。首先建立卷积神经网络模型,以从图像的高斯金字塔中提取多尺度分层特征作为识别依据,再与多层感知器相连接实现图像中各像素的识别;为了避免目标交叠所带来的问题,对图像进行超像素分割,通过计算每个超像素内部的平均像素类别分布确定该超像素块的类别,再将相同类别的相邻超像素合并,最终实现图像中各目标的识别。试验结果表明:该方法的平均目标识别准确率达98.92%,标准差为0.55%,识别单幅图像的平均耗时为1.68 s,采用GPU硬件加速后识别单幅图像的平均耗时缩短为0.72 s。该方法实现了精确、稳定和高效的玉米与杂草识别,研究可为精确除草的发展提供参考。  相似文献   

9.
红枣收获机视觉导航路径检测   总被引:7,自引:6,他引:1  
针对新疆地区骏枣与灰枣枣园的收获作业,该研究提出一种红枣收获机枣树行视觉导航路径检测算法。通过枣园图像固定区域中B分量垂直累计直方图的标准差d与最小值f的关系对枣园种类进行自动判断。针对灰枣枣园,首先采用色差法与OTSU法对图像进行灰度化与二值化处理,然后进行面积去噪与补洞处理,在处理区域内从上向下逐行扫描,将每行像素上像素值为0的像素点坐标平均值作为该行候补点的坐标,并将所有候补点坐标的平均值作为Hough变换的已知点坐标,最后基于过已知点的Hough变换拟合导航路径;针对骏枣枣园,在处理区域内通过垂直累计R分量的方法确定扫描区间,然后在扫描区间内从上到下逐行扫描,将每行像素上R分量值最小的像素点作为该行的候补点,并将所有候补点的坐标平均值作为Hough变换的已知点,最后使用过已知点的Hough变换拟合导航路径。试验结果表明:对于灰枣枣园与骏枣枣园,该算法的路径检测准确率平均值分别为94%和93%,处理1帧图像平均耗时分别为0.042和0.046s,检测准确性与实时性满足红枣收获机作业要求,能够自动判别枣园种类进行作业,可为实现红枣收获机自动驾驶提供理论依据。  相似文献   

10.
在复杂果园环境中,传统机器视觉算法难以处理光影变化、遮挡、杂草等因素的干扰,导致导航道路分割不准确。针对此问题,该研究提出了一种改进YOLOv7的果园内导航线检测方法。将注意力机制模块(convolutional block attention module,CBAM)引入到原始YOLOv7模型的检测头网络中,增强果树目标特征,削弱背景干扰;在ELAN-H(efficient layer aggregation networks-head,ELAN-H)模块和Repconv(re-parameterization convolution,Repconv)模块之间引入SPD-Conv(space-to-depth,non-strided convolution,SPD-Conv)模块,提高模型对低分辨率图像或小尺寸目标的检测能力。以树干根部中点作为导航定位基点,利用改进YOLOv7模型得到两侧果树行线的定位参照点,然后利用最小二乘法拟合两侧果树行线和导航线。试验结果表明,改进YOLOv7模型检测精度为95.21%,检测速度为42.07帧/s,相比于原始YOLOv7模型分别提升了2.31个百分点和4.85帧/s,能够较为准确地识别出树干,且对树干较密的枣园图像也能达到较好的检测效果;提取到的定位参照点与人工标记树干中点的平均误差为8.85 cm,拟合导航线与人工观测导航线的平均偏差为4.90 cm,处理1帧图像平均耗时为0.044 s,能够满足果园内导航需求。  相似文献   

11.
针对基于双目视觉技术的作物行识别算法在复杂农田环境下,立体匹配精度低、图像处理速度慢等问题,该文提出了一种基于Census变换的作物行识别算法。该方法运用改进的超绿-超红方法灰度化图像,以提取绿色作物行特征;采用最小核值相似算子检测作物行特征角点,以准确描述作物行轮廓信息;运用基于Census变换的立体匹配方法计算角点对应的最优视差,并根据平行双目视觉定位原理计算角点的空间坐标;根据作物行生长高度及种植规律,通过高程及宽度阈值提取有效的作物行特征点并检测作物行数量;运用主成分分析法拟合作物行中心线。采用无干扰、阴影、杂草及地头环境下的棉田视频对算法进行对比试验。试验结果表明,对于该文算法,在非地头环境下,作物行中心线的正确识别率不小于92.58%,平均偏差角度的绝对值不大于1.166°、偏差角度的标准差不大于2.628°;图像处理时间的平均值不大于0.293 s、标准差不大于0.025 s,能够满足田间导航作业的定位精度及实时性要求。  相似文献   

12.
针对传统作物行识别方法在相邻图像间的识别结果偏差较大,作物行的定位精度和稳定性低等问题,该研究提出一种基于双目视觉和自适应Kalman滤波技术的作物行识别与跟踪方法。对于作物行识别,首先建立图像预处理算法,基于改进的超绿-超红模型和最大类间方差法分割植被灰度特征;建立作物行特征提取算法,基于特征点检测技术和双目视差测距方法计算植被角点特征的三维坐标,根据三维阈值提取作物行特征点,进而建立作物行中心线检测算法,建立基于主成分分析的直线拟合模型,根据作物行特征点的频数统计规律检测作物行冠层中心线。对于作物行跟踪,建立跟踪目标规划模型,提取位于图像中央区域的作物行作为跟踪目标;建立目标状态方程,基于自适应Kalman滤波技术构建作物行中心线跟踪模型。以棉花图像开展试验研究,图像数据包括阴影、杂草、地头等田间场景。试验结果表明,该研究方法的作物行识别准确度、精度和速度均较高,识别正确率约为92.36%,平均航向偏差为0.31°、标准差为2.55°,平均识别速度约80.25 ms/帧;经目标跟踪后,航向角和横向位置估计的标准差分别为2.62°和0.043 m、较无跟踪状态分别减小22.94%和10.42%,作物行中心线的方位估计精度进一步提高。研究成果可为导航系统提供连续、稳定的作物行导引参数。  相似文献   

13.
基于区域生长均值漂移聚类的苗期作物行提取方法   总被引:4,自引:4,他引:0  
为解决传统机器视觉方法检测苗期作物行时不同作物种类、不同生长背景和不同作物行数导致的作物行提取精度低的问题,该研究提出一种基于区域生长和均值漂移聚类的苗期作物行提取方法。首先,通过Lab颜色空间中a、b双颜色分量最大熵法选取最优阈值进行图像分割;其次,通过垂直投影获取均值漂移的聚类窗口带宽,均值漂移时以聚类窗口边缘为种子点进行区域生长来归类和标记每一行作物,之后遍历所有作物行获取聚类中心点;最后,通过最小二乘法拟合聚类中心点得到作物行直线。试验结果表明,该方法对大蒜、玉米、油菜、水稻和小麦5种作物的苗期作物行提取精度较高,5种作物的平均行识别率为98.18%,平均误差角度为1.21°,每张图片的平均处理时间为0.48 s。该方法的作物行提取性能明显优于Hough变换方法,为田间环境多因素影响下的苗期作物行提取提供了一种更具鲁棒性的方法。  相似文献   

14.
基于无人机遥感影像的育种玉米垄数统计监测   总被引:2,自引:2,他引:0  
为准确、快速的获取区域范围内的育种玉米垄数信息,该研究充分利用无人机(unmanned aerial vehicle,UAV)超低空遥感监测技术,通过提取UAV影像的超绿特征和Hough变换方法提取育种玉米的垄数。研究区为金色农华种业科技股份有限公司崖城育种基地,基地内存在正处于苗期、拔节期和成熟期的玉米试验地块,使用的数据源为利用固定翼瑞士e Bee Ag精细农业用无人机获取的超低空可见光影像。研究过程中,首先计算UAV影像的超绿特征,并进行二值优化与形态学开启运算处理,以分离玉米植株与土壤背景信息,采用3种尺寸的窗口搜索并检测用于垄数提取的定位点;然后,用影像分割投影法提取玉米垄线的中心点,减小后续处理的计算量;最后,对已经提取的直线特征不明显的无人机影像中垄线中心点进行Hough变换,以提取玉米垄数。精度评价结果为:采用3种搜索窗口,苗期地块内的43垄玉米的提取精度分别为97.67%、95.35%、88.37%;拔节期地块内的74垄玉米的提取精度分别为100.00%、100.00%、58.11%;成熟期地块内的44垄玉米的提取精度分别为95.45%、90.91%、88.64%。该研究所提出的基于影像分割投影法和Hough变换可以正确提取不同生育期的玉米垄数,其中以拔节期的玉米垄数提取精度最高,此时的玉米植株在UAV影像上可以识别且又尚未封垄,是提取种植垄数的最佳时相;对于定位点检测,与玉米种植的垄间间隔相近的窗口尺寸(1?15或者1?25)是垄数监测的最佳尺寸。  相似文献   

15.
河蟹养殖自动作业船导航控制系统设计与测试   总被引:4,自引:2,他引:2  
针对河蟹养殖过程中存在的水草清理难度大、喂料投饵不均匀、人力成本高等问题,该文设计了一种基于ARM(advanced RISC machine)和GPS/INS(global positioning system/inertial navigation system)组合导航的多功能全自动河蟹养殖作业船导航控制系统。该系统由明轮驱动船、ARM主控制器、GPS/INS组合导航装置等组成。为降低传统的基于有限目标点航道位置计算方法的复杂度并减小船体偏离航道的误差,该文提出了一种基于实时插点的航道位置计算方法,实时地解算出当前时刻的目标位置,并设计了相应的转弯及航道切换策略。针对明轮船具有非线性、大时滞、欠阻尼的运动特点,设计了基于模糊PID(proportion integration differentiation)的航向、航速双闭环运动控制算法;基于嵌入式Linux操作系统,设计了船载子系统软件,并编写了上位机监控程序对船载子系统的运行状态进行实时监控。利用河蟹养殖作业船试验平台进行了航速及自动导航试验,并对有限目标点和实时插点的航道位置计算方法的控制效果进行了对比。试验结果表明:船体速度响应较快,超调量不超过5%,稳态误差可控制在3%以内;采用有限点的航道位置计算方法时,船体在转弯与直行时偏离航道的最大误差分别为2.12和1.52m;采用实时插点的航道位置计算方法时,船体在转弯与直行时偏离航道的最大误差分别为0.36和0.09m,分别下降了83.02%和94.08%,船体的控制精度得到了全面的改善。该文可以为多功能河蟹养殖作业船的研究提供重要参考。  相似文献   

16.
张勤  陈少杰  李彬 《农业工程学报》2015,31(20):165-171
中国南方水田环境复杂,不同生长阶段秧苗的形态各异,且田中常出现浮萍及蓝藻,其颜色与秧苗颜色极其相似,因此常用的作物特征提取算法难以应用在水田上。针对这些问题,该文提出一种基于SUSAN角点的秧苗列中心线方法。运用归一化的Ex G(excess green index)提取秧苗的灰度化特征,运用自适应的SUSAN(smallest univalue segment assimilating nucleus)算子提取秧苗特征角点;最后运用扫描窗口近邻法进行聚类,采用基于已知点的Hough变换(known point Hough transform)提取秧苗列中心线。经试验验证,此算法在图像中存在浮萍、蓝藻和秧苗倒影的情况下有较高的鲁棒性。在各种情况下均成功提取秧苗的列中心线,且每幅真彩色图像(分辨率:1280×960)处理时间不超过563 ms,满足视觉导航的实时性要求。  相似文献   

17.
像素自相关矩阵的阈值自适应角点检测算法   总被引:1,自引:1,他引:0  
针对Harris角点检测算法中角点响应函数(corner response function,CRF)系数阈值与非极大值抑制系数阈值需要人为设定所造成的可变性和随机性等问题,该文提出一种通过计算图像每个像素的自相关矩阵行列式值,构造特征角点图像进行自适应阈值分割的改进Harris角点检测算法.该算法首先通过计算原图像经过方向滤波和低通滤波后各像素的自相关矩阵行列式值,以此构造特征角点图像;然后采用OTSU算法计算特征角点图像分割阈值,从而筛选出预选区域;最后结合改进的非极大值抑制方法提取有效角点.通过5组角点检测对比试验结果数据分析,不同类型图像的角点检测准确率均有提高,高分二号遥感影像的角点检测准确率提高27.06个百分点,可以初步得出,该算法相比传统Harris角点检测算法不但能够自动计算角点检测的最佳阈值,而且能够更准确地定位角点和去除边缘伪角点,从而提高了角点检测的精确度,该研究可为农业遥感影像数据检测提供参考.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号