首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到13条相似文献,搜索用时 93 毫秒
1.
图像拼接可以建立宽视角的高分辨率图像,对实现农业智能化有重要作用。基于Kinect传感器的图像拼接方法利用彩色和深度双源信息,能够有效避免图像缺失、亮暗差异、重影等拼接错误,但是存在拼接时间较长和目标植株不明显等情况。针对这一问题,该文提出一种基于Kinect传感器彩色和深度信息的目标植株图像快速拼接方法。首先用K-means聚类算法和植株深度信息提取彩色图像中有效植株区域,再采用SURF(speeded up robust features)算法进行特征点提取,利用相似性度量进行特征点匹配并根据植株深度数据去除误匹配,由RANSAC(randomsampleconsensus)算法寻找投影变换矩阵,最后采用基于缝合线算法的多分辨率图像融合方法进行拼接。室内外试验结果表明:该文图像拼接方法更能突显出目标植株且极大缩短了拼接时间,该方法图像拼接时间只需3.52 s(室内)和7.11 s(室外),较基于深度和彩色双信息特征源的Kinect植物图像拼接方法时间缩短了8.62 s(室内)和38.56 s(室外),且平均匹配准确率达96.8%。该文拼接后图像信息熵、清晰度、互信息、空间频率平均分别为6.34、50.36、11.70、11.28,图像质量较传统方法均有提高。该研究可为监测农业植株生长状态、精确喷洒药物提供参考。  相似文献   

2.
基于改进K-means聚类算法的大田麦穗自动计数   总被引:2,自引:5,他引:2  
单位种植面积的小麦麦穗数量是评估小麦产量和小麦种植密度的一个重要参量。为了实现高效、自动地麦穗计数,该文提出了基于改进K-means的小麦麦穗计数方法。该方法建立从图像低层颜色特征到图像中包含麦穗的一个直接分类关系,从而不需要再对图像进行分割或检测。以颜色特征聚类为基础的这种方法能够估计麦穗在空间局部区域中数量,并且在不需要训练的情况下更具有可扩展性。统计试验结果表明,该文算法能够适应不同光照环境,麦穗计数的准确率达到94.69%,超过了传统基于图像颜色特征和纹理特征分割的麦穗计数方法 93.1%的准确率。  相似文献   

3.
基于K-means聚类的植物叶片图像叶脉提取   总被引:1,自引:4,他引:1  
植物的叶片是植物最基本、最主要的生命活动场所。叶脉的提取与分析对叶片和整株植物结构的分析有一定的应用价值。该文提出一种基于K-means聚类(clustering)的叶脉提取算法。该算法首先对叶片图像的HSI彩色空间中的I信息进行K-means聚类处理,根据聚类的结果提取叶片边界,并将叶片图像分为受光均匀和受光不均匀的2类。对于受光均匀的叶片图像在聚类结果中直接提取叶脉,而受光不均匀的叶片图像则需去除部分叶肉后再进行一次K-means聚类提取叶脉。结果表明:该算法能有效地降低叶脉提取的错分率。  相似文献   

4.
土壤学始于对土壤剖面及其形态特征的观察,剖面发生层的划分与发生层边界特征的描述是土壤调查的基础。实地划分发生层需要丰富的土壤学实践经验,存在主观和缺乏统一划分标准的问题。以紫色土剖面图像为研究对象,采用K-means聚类和图像分割技术,结合图像的颜色特征(CIE Lab色彩空间)和纹理特征(Entropy)识别紫色土剖面发生层边界,并与实地划分的结果进行比较。结果表明:(1)CIE Lab色彩空间的a、b通道和Entropy纹理特征,可以划分出供试剖面的主要发生层(A、B、C)和基岩(R);(2)聚类识别的发生层数量和发生层深度与实地识别的结果基本一致;除Z2剖面的C层和Z6剖面的Ap层聚类识别与实地识别的发生层下边界深度相差较大(分别为13 cm和8 cm)外,其余发生层下边界深度相差均在3 cm以内;(3)聚类识别的发生层边界形状更为不规则,明显度更为模糊。K-means聚类和图像分割技术实现了紫色土剖面发生层边界的客观识别,可为土壤剖面智能辨识系统的开发提供科学参考。  相似文献   

5.
随着深度学习技术在植物表型检测领域的应用,有监督深度学习逐渐成为植物表型信息的提取与分析的主要方法。但由于植物结构复杂、细节特征多,人工标注的成本和质量问题已成为制约技术发展的瓶颈。该研究针对玉米苗期植株图像分割问题提出一种基于深度掩码的卷积神经网络(Depth Mask Convolutional Neural Network,DM-CNN),将深度图像自动转换深度掩码图像,并替代人工标注样本完成图像分割网络训练。试验结果表明,在相同的网络训练参数下,通过测试DM-CNN得到的平均交并比为59.13%,平均召回率为65.78%,均优于人工标注样本对应的分割结果(平均交并比为58.49%,平均召回率为64.85%);此外,在训练样本中加入10%室外玉米苗期图像后,DM-CNN对室外测试集的平均像素精度可以达到84.54%,证明DM-CNN具有良好的泛化能力。该研究可为高通量、高精度的玉米苗期表型信息获取提供低成本解决方案及技术支持。  相似文献   

6.
基于K-means聚类的柑橘红蜘蛛图像目标识别   总被引:3,自引:3,他引:3  
为快速检测红蜘蛛虫害,该研究采用基于Lab颜色模型中a(红/绿)、b(黄/蓝)层信息的K-means聚类法识别彩色图像中的红蜘蛛。试验选取8幅具有不同清晰度的柑橘红蜘蛛图像,采用基于Sobel边缘检测算子的评价函数计算图像清晰度评价值以评价图像清晰度,对比采用灰度法和包含2、3、4或5个聚类中心的K-means聚类法的目标识别效果和识别效率。结果表明,灰度法对8幅图像中红蜘蛛目标识别率平均值为29%,误判率平均值为201%,无法应用于复杂背景图像中的红蜘蛛目标识别。包含5个聚类中心的K-means聚类法对清晰度较高的图像识别率为100%,误判率为0,对清晰度较低的图像识别率为88%,误判率为0;当图像尺寸较小时,包含4个聚类中心的K-means聚类法识别效率与灰度法相当;当图像尺寸较大时,重复计算聚类中心导致识别耗时较长;基于Lab颜色空间的识别算法无法有效识别其他颜色的红蜘蛛,继续研究的方向为引入红蜘蛛形态信息以提高识别准确率和优化聚类中心的选取以降低识别耗时。  相似文献   

7.
图像拼接对制作全景图具有重要作用,传统SIFT(scale-invariant feature transform)图像拼接方法受光照不均匀或风吹影响,存在错位和缺失等情况。针对这一问题,该文提出一种基于Kinect彩色和深度双信息特征源的图像拼接方法。首先对获取的植株彩色图像采用SIFT算法进行特征点提取和特征点匹配,利用Kinect收集到的植株深度数据去除误匹配,采用RANSAC算法寻找投影变换矩阵,最后通过最佳缝合线算法进行图像融合。室内和室外试验结果表明,该文基于Kinect彩色和深度双信息特征源的图像拼接方法能够有效克服光照、风吹等环境因素的影响,避免了图像缺失、亮暗差异、重影等拼接错误,该文方法图像拼接时间较短,平均匹配准确率达96.0%,较传统SIFT图像拼接方法平均准确率提高了5.9%。  相似文献   

8.
为了解决猪胴体背膘厚度在人工测量中准确率、效率低以及存在对样本造成污染的问题,该文基于计算机视觉和图像处理技术提出一种检测背膘厚度的算法。算法主要分成背膘部分检测和测量部位的直线检测。前者通过图像分割、特征点的检测以及漫水填充等方法实现,能准确提取猪胴体背膘部分。后者在图像预处理后,首先通过感兴趣区域(region of interest,ROI)提取猪胴体肋排区域;然后利用设定好的浮动窗口进行全幅图像的扫描,通过平滑后的平均灰度线特征提取肋骨的目标像素点;最后,基于近邻法利用目标像素点间的邻近关系对其进行聚类,找到胴体第6、7根肋骨,并采用基于已知点的Hough变换提取测量直线,将测量部位的直线映射到背膘部分,则可实现对猪胴体背膘厚度准确测量。试验结果表明,在对背膘厚度测量误差小于2 mm时,检测准确率可达92.31%,该文提出的方法能对猪胴体背膘厚度的测量位置进行准确定位和测量。  相似文献   

9.
基于同态滤波和K均值聚类算法的杨梅图像分割   总被引:13,自引:8,他引:5  
针对自然环境下光照不均杨梅果实分割效果不理想问题展开研究。应用同态滤波算法对HSV(色调hue,饱和度 saturation,亮度value)颜色空间下杨梅图像V分量进行亮度增强,以补偿光线。而后针对彩色杨梅图像的颜色特征,结合Lab(L(亮度Lightness),a(色度chromaticity,+a表示红色,?a表示绿色),b(色度 chromaticity,+b表示黄色,?b表示蓝色)颜色空间a、和b分量的特点,应用K均值聚类算法在Lab颜色空间中对彩色杨梅图像进行分割。为了验证该算法的有效性,在100余幅图像中选用15幅因光照不均和生长状态不同而存在不同程度阴影影响的杨梅图像,进行了3组比较试验,先采用K均值聚类算法对光线补偿去除阴影前后的杨梅图像分割结果进行比较;接着,采用基于色差2*R-G-B自适应灰度阈值分割算法和K均值聚类算法2种不同分割算法对去除阴影后的杨梅图像分割结果进行比较;最后,与基于灰度变换法、直方图均衡化方法的图像增强法去除阴影的效果进行对比。试验结果表明,该文算法的分割误差、假阳性率、假阴性率平均值分别为3.78%,0.69%和 6.8%,分别比光线补偿前降低了21.01,12.79 和21.14个百分点;与基于色差(2*R-G-B)自适应灰度阈值分割算法相比,分割误差、假阳性率、假阴性率这3个指标的性能平均提高了12.93,1.45和7.11个百分点;与基于灰度变换法图像增强法比较表明,分割误差、假阳性率、假阴性率平均值分别降低了32.94 ,6.85 和29.65个百分点,与直方图均衡化图像增强法相比,这3个值分别降低了24.92,6.12和33.06个百分点。通过试验结果图的主观判断和评价指标的定量分析,验证了该算法能有效地分割出杨梅目标,保证了杨梅目标在颜色、纹理和形状方面的完整度,研究结果为研究采摘机器人进行杨梅等果实的分割和识别提供参考。  相似文献   

10.
棉田冠层覆盖度是监测棉田棉花长势的重要指标,针对棉田复杂环境中冠层图像难以准确分割的问题,该文提出了一种基于逻辑回归算法的复杂背景棉田冠层图像自适应阈值分割方法。首先将棉田冠层图像像素分成叶片冠层和地表背景2类,在HSV颜色空间中分别提取两类像素的H通道值,在RGB颜色空间中分别提取绿色占比值(G/(G+R+B))作为颜色特征;再利用逻辑回归算法确定出各颜色特征的分割阈值,通过H通道分割阈值实现图像的初次分割;再对初次分割结果中的低亮像素使用逻辑回归算法计算出的超绿特征阈值进行低亮像素分割,同时采用绿色占比分割阈值对图像高亮像素及低亮像素分割结果整体实现二次分割,最后采用形态学滤波方法对分割结果进行优化。为评价该分割方法,利用从新疆棉花产区采集到的320幅棉田冠层图像进行试验。结果表明,该方法可在棉田复杂自然背景下,有效分割出棉田冠层区域,平均相对目标面积误差率仅为5.46%,总体平均匹配率达到93.07%;优于超绿特征OTSU分割方法(平均相对目标面积误差率11.78%,总体平均匹配率76.43%)、四分量分割方法(平均相对目标面积误差率24.11%,总体平均匹配率71.67%)、显著性分割方法(平均相对目标面积误差率36.92%,总体平均匹配率66.92%)。该方法的平均处理时间为4.63 s,相对于超绿特征OTSU法(3.84 s)和四分量分割法(2.56 s),耗时多一些,但与显著性分割法(6.25 s)对比,花费时间要少。研究结果可为棉田自然复杂环境下机器视觉技术监测棉花覆盖度提供一种有效途径。  相似文献   

11.
将多源数据融合分析可以降低单一图像造成的误判读,利用多源数据之间的冗余部分进行配准,利用互补信息完成融合,能够提高数据的信息量和可靠性。该文利用近地面遥感模拟平台分别获取油菜的多光谱图像和深度图像,将2种图像进行配准和融合。该文分别针对多光谱图像和光程差深度图像的成像特点,进行相机内外参计算与图像矫正。采用 SIFT(scale invariant feature transform)算法计算2源图像上的 SIFT 点,并依据关键点描述子进行匹配,之后通过关键点位置计算仿射变换矩阵对图像进行缩放、平移和旋转,从而实现变换后图像的配准。分别对 harr,Db2,Db4,Sym2, Sym4,Bior2.2,Bior2.4,Coif2,Coif 等9种小波基融合后的结果计算其相应的交叉熵、峰值信噪比和互信息量等5个参量进行评价,得出小波基 harr 和 sym4融合效果较好,各项指标均衡性较好。用 haar 小波基对配准后图像在3、4、5、6层分解融合,通过观察得出在多光谱与深度图像融合中第3层小波分解和第4层分解的融合效果较好。最终将深度图像的高程数据归一化之后进行植株三维构建,得到三维点云并进行可视化。  相似文献   

12.
基于混沌优化K均值算法的马铃薯芽眼的快速分割   总被引:1,自引:1,他引:1  
为提高芽眼分割的准确性,该文实现了基于混沌优化K均值算法的马铃薯芽眼的快速分割。K均值算法具有有效性及易于实现的优点,但是容易陷入局部最优值的缺点造成了其聚类结果的不准确。混沌系统由于其遍历性和不重复性,能够以较快的速度执行全局搜索。该文提出的算法的主要思想就是将混沌变量映射到K均值算法的变量中,用混沌变量代替其寻找全局最优值。分割试验结果表明:该文提出的算法,不仅在分割准确性上优于当下流行的K均值算法和模糊C均值算法,而且在运行时间上也更胜一筹,K均值算法和模糊C均值算法分割一幅马铃薯芽眼的图像所需的平均时间分别为2.895 5 s和3.556 4 s,而该文提出的算法仅需1.109 s。当聚类数大于3时,该文提出的算法在运行时间上受聚类数目的影响非常小,这一特点可用于其他一些适合聚类数大于3的农作物上。试验结果还表明,对于该文中的样本,最佳聚类数不宜超过3。最后,精度试验验证了该文提出的算法能够对样本中的马铃薯芽眼实现完全,无遗漏的分割,总的分割精度为98.87%,其中,对正常的马铃薯芽眼分割精度可达100%,对特殊马铃薯的芽眼分割精度为91.67%,总体分割精度较好。因此,该文提出的算法能够为后续种薯的自动切块提供参考。  相似文献   

13.
深度估计是智能农机视觉系统实现三维场景重建和目标定位的关键。该文提出一种基于自监督学习的番茄植株图像深度估计网络模型,该模型直接应用双目图像作为输入来估计每个像素的深度。设计了3种面向通道分组卷积模块,并利用其构建卷积自编码器作为深度估计网络的主体结构。针对手工特征衡量2幅图像相似度不足的问题,引入卷积特征近似性损失作为损失函数的组成部分。结果表明:基于分组卷积模块的卷积自编码器能够有效提高深度估计网络的视差图精度;卷积特征近似性损失函数对提高番茄植株图像深度估计的精度具有显著作用,精度随着参与损失函数计算的卷积模块层数的增加而升高,但超过4层后,其对精度的进一步提升作用不再明显;当双目图像采样距离在9.0 m以内时,该文方法所估计的棋盘格角点距离均方根误差和平均绝对误差分别小于2.5和1.8 cm,在3.0 m以内时,则分别小于0.7和0.5 cm,模型计算速度为28.0帧/s,与已有研究相比,2种误差分别降低了33.1%和35.6%,计算速度提高了52.2%。该研究可为智能农机视觉系统设计提供参考。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号