首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 187 毫秒
1.
目的 双目测距对水面无人艇自主避障以及视觉侦察具有重要意义,但视觉传感器成像易受光照环境及运动模糊等因素的影响,基于经典Census变换的立体匹配代价计算方法耗时长,且视差获取精度差,影响测距精度。为了提高测距精度并保证算法运行速度,提出一种用于双目测距的快速立体匹配算法。方法 基于传统Census变换,提出一种新的比特串生成方法,在匹配点正方形支持窗口的各边等距各选3个像素点,共选出8个像素点,这8个像素点两两比较生成一个字节的比特串。将左右视场中的匹配点与待匹配点的比特串进行异或,得到两点的汉明距离,在各汉明距离中找到距离最小的像素点作为匹配像素点,两像素点的横坐标差为视差。本文采用区域视差计算的方法,在左右视场确定同一目标区域后进行视差提取和滤波,利用平均视差计算目标的距离。结果 本文算法与基于传统Census变换的立体匹配视差获取方法相比,在运算速度方面优势明显,时间稳定在0.4 s左右,用时仅为传统Census变换算法的1/5。在Middlebury数据集中的图像对teddy和cones上进行的算法运行时间对比实验中,本文基于Census变换改进的算法比已有的基于Census变换的匹配算法在运行时间上快了近20 s。在实际双目测距实验中,采用本文算法在1019 m范围内测距误差在5%以内,根据无人艇的运动特点和避障要求,通过分析可知该算法的测距精度可以满足低速无人艇的避障需求。结论 本文给出的基于改进Census变换的匹配算法在立体匹配速度上有大幅提高,提取目标视差用于测距,实际测距结果表明,本文算法能够满足水面无人艇的视觉避障要求。  相似文献   

2.
目的 当前,大多数单幅散焦图像的3维(3D)场景深度恢复方法,通常使用高斯分布描述点扩散函数(PSF)模型,依据图像边缘散焦模糊量与场景深度的对应关系获得稀疏深度图,采用不同的扩展方法得到整个场景图像的全深度图.鉴于现有方法的深度恢复结果还不够精准,对各种噪声干扰还不够健壮,提出一种基于柯西分布的点扩散函数模型计算物体图像边缘散焦模糊量的方法.方法 将输入的单幅散焦图像分别用两个柯西分布重新模糊,利用图像边缘两次重新模糊图像间梯度比值和两个柯西分布的尺度参数,可以计算出图像中边缘处的散焦模糊量.使用matting内插方法将边缘模糊量扩展到整个图像,即可恢复场景的全深度图.结果 将原始Lenna图像旋转并加入高斯噪声以模拟图像噪声和边缘位置误差,用原图与噪声图比较了柯西分布图像梯度比值与高斯分布图像梯度比值的平均误差.使用多种真实场景图像数据,将本文方法与现有的多种单幅散焦图像深度恢复方法进行了比较.柯西分布图像梯度比值的平均误差要小于高斯分布图像梯度比值的平均误差.本文方法能够从非标定单幅散焦图像中较好地恢复场景深度,对图像噪声、不准确边缘位置和邻近边缘具有更好的抗干扰能力.结论 本文方法可以生成优于现有基于高斯模型等方法的场景深度图.同时,也证明了使用非高斯模型建模PSF的可行性和有效性.  相似文献   

3.
目的 显微光学成像有景深小和易模糊等缺陷,很难根据几何光学中的点扩散函数准确评估图像的模糊程度,进而很难计算景物深度。同时,传统的使用边缘检测算子衡量图像模糊程度变化的方法缺少与景物深度之间的函数关系,影响深度计算的精度。为此,本文提出一种显微光学系统成像模糊程度与景物深度关系曲线的获取方法。方法 从显微光学系统中的光学传递特性出发,建立光学传递函数中的光程差、高频能量参数和景物深度之间的数学关系,并通过归一化和曲线拟合得到显微光学系统的成像模糊程度与景物深度之间的解析函数。结果 为了验证本文获取的图像模糊程度和景物深度之间的函数关系,首先使用纳米方形栅格的模糊图像进行深度计算,实验测得的深度平均误差为0.008 μm,即相对误差为0.8%,与通过清晰图像和模糊图像的逐个像素亮度值比较,根据最小二乘方法搜索两幅图像的亮度差最小时求得深度的方法相比,精度提高了约73%。然后基于深度测量结果进行模糊栅格图像的清晰重构,重构后的图像在平均梯度和拉普拉斯值两个方面都明显提高,且相对于传统基于高斯点扩散函数清晰重构方法,本文方法的重构精度更高,稳定性更强;最后通过多种不同形状和亮度特性的栅格模糊图像的深度计算,证明了本文的模糊程度—深度变化曲线对不同景物的通用性。结论 本文建立的函数关系能够更加直观地反映系统参数对光学模糊成像过程的影响。使用高频能量参数表征图像的模糊特性,既可以准确测量图像模糊程度,也与景物深度具有直接的函数关系。固定光学系统参数后,建立的归一化系统成像模糊程度与景物深度之间的函数关系不会受到景物图像的纹理、亮度等特性差异的影响,鲁棒性强、更方便、更省时。  相似文献   

4.
结合梯度信息的特征相似性图像质量评估   总被引:3,自引:0,他引:3       下载免费PDF全文
目的 图像的边缘信息对于图像质量的评估非常重要.基于底层特征的图像质量评估算法(FSIM),虽然考虑了图像的底层特征,但该算法对边缘信息的识别能力不理想.针对以上问题,将FSIM算法与对边缘信息更敏感的梯度结构相似度(GSSIM)算法相结合得到一种既符合人眼视觉系统特点又能有效识别图像边缘的新的图像质量评估算法(FGSIM).方法 该算法将FSIM算法的相位一致性部分与GSSIM算法的提取图像信息的部分相结合从而得到一种新的图像质量评估算法FGSIM.其中,采用相位一致性表示图像的特征,用于保持评估算法接近人类视觉系统的特点,提取图像信息的部分通过图像的梯度来实现,用于更有效的识别图像边缘.结果 分别使用FSIM、GSSIM以及FGSIM算法对不同运动模糊程度、不同高斯模糊程度以及不同高斯噪声的图像进行质量评估,将得到的数据用曲线图表示,从图中可以看出:在运动模糊实验中,随图像模糊程度的增大,FGSIM算法的数值由0.8943下降到0.3443,变化更加明显,对运动模糊表现出更好的敏感性;在高斯模糊和高斯噪声实验中,FGSIM算法数值变化的程度虽然不如GSSIM算法好,但相较FSIM算法有一定的提高.FGSIM算法在公共测试图像库中与FSIM、GSSIM算法进行实验比较,FGSIM算法的散点图较FSIM算法稍差些,但与GSSIM算法相比具有非常大的改进,其散点图比GSSIM更为集中.采用较为常用的衡量评估方法性能的指标:皮尔逊相关系数、斯皮尔曼秩相关系数、KROCC 和均方根误差对评估算法的性能进行衡量,数据显示,FGSIM算法的性能比GSSIM算法好.结论 实验结果表明,FGSIM算法是一种既符合人眼视觉系统特点又能有效识别图像边缘的新的图像质量评估算法,该算法对边缘信息的识别能力更强,对图像质量的变化更加敏感.  相似文献   

5.
目的 基于小波域的多尺度分块压缩感知重构算法忽略了高频信号在重构过程中的作用,丢失了大量的边缘与细节信息。针对上述问题,提出一种自适应多尺度分块压缩感知算法,不仅合理利用低频信息还充分利用图像的高频信息,在图像细节复杂度提高的情况下保证图像重构质量的提高。方法 首先进行3层小波变换,得到一个低频信号和9个高频信号,分别进行小波逆变换后分成大小相同互不重叠的块,对低频部分采用2维邻块边缘自适应加权滤波的方法进行处理,对高频部分采用纹理自适应分块采样,最后利用平滑投影Landweber(SPL)算法对其进行重构。结果 与已有的分块压缩感知算法、基于边缘和方向的分块压缩感知算法和基于纹理和方向的分块压缩感知算法相比,本文算法在不同的采样率下,性能均有所提升,代表细节信息的高频信号得到充分重建,改进的算法所得到的重建图像具有较高的分辨率,尤其对细节较为丰富的图像进行重建后具有较高的峰值信噪比;2维邻块边缘自适应加权滤波有效的去除了重建图像的块效应,且重建时间平均减少了0.3 s。结论 将三层小波变换后的高频分量作为纹理部分,利用自适应多尺度分块重建出图像的轮廓与边缘;将低频分量直接视为平坦部分,邻块边缘自适应加权滤波重建出图像细节,不仅充分利用了图像的高低频信息,还减少了平坦块检测过程,使得重建时间有效缩短。经实验验证,本文算法重建图像质量较好,尤其是对复杂图像明显消除了块效应,边缘和纹理细节较清晰。因此主要适用于纹理细节较复杂的人脸图像、建筑图像和遥感图像等。  相似文献   

6.
目的 由于CV模型仅利用了图像的全局信息,其对灰度不均匀图像的分割效果不理想,同时在分割弱边缘和弱纹理图像时,优化易陷入局部最优从而导致分割效率低下,且对初始位置的选择较为敏感。针对这些问题,提出一种结合分数阶微分和图像局部信息的CV模型。方法 首先将分数阶梯度信息融入图像的局部信息中,用来替代CV模型的整数阶全局信息,并建立自适应计算分数阶最佳阶次的数学模型,然后在模型中加入符号距离的约束项。结果 一方面,用局部信息代替全局信息,可以在一定程度上解决CV模型对灰度不均匀图像分割效果不理想的问题。另一方面,将Grünwald-Letnikov分数阶梯度信息融合到局部信息中,当分数阶阶次0 < α < 1时,增加了图像灰度不均匀、弱边缘、弱纹理区域的梯度信息,从而增加了演化驱动力避免演化曲线陷入局部最优,有效地解决了图像因灰度变化不大导致演化曲线驱动力小的问题,在一定程度上解决了模型对初始轮廓位置选择和对噪声敏感的问题。同时为了解决人工选取最佳分数阶阶次费时费力的问题,根据图像的梯度模值和信息熵建立计算分数阶最佳阶次的数学模型,将此自适应分数阶模型应用到算法之中,以自适应确定最佳分数阶阶次。此外,为了避免模型的重新初始化,在模型中加入符号距离的约束项,从而提高了曲线的演化效率。结论 理论分析和实验结果均表明,该算法能够较好地分割灰度不均匀、弱边缘和弱纹理区域的图像,并能根据图像特征自适应确定最佳分数阶阶次,提高了分割精度和分割效率,且对初始轮廓位置选择及噪声均具有一定的鲁棒性。  相似文献   

7.
目的 双目视觉是目标距离估计问题的一个很好的解决方案。现有的双目目标距离估计方法存在估计精度较低或数据准备较繁琐的问题,为此需要一个可以兼顾精度和数据准备便利性的双目目标距离估计算法。方法 提出一个基于R-CNN(region convolutional neural network)结构的网络,该网络可以实现同时进行目标检测与目标距离估计。双目图像输入网络后,通过主干网络提取特征,通过双目候选框提取网络以同时得到左右图像中相同目标的包围框,将成对的目标框内的局部特征输入目标视差估计分支以估计目标的距离。为了同时得到左右图像中相同目标的包围框,使用双目候选框提取网络代替原有的候选框提取网络,并提出了双目包围框分支以同时进行双目包围框的回归;为了提升视差估计的精度,借鉴双目视差图估计网络的结构,提出了一个基于组相关和3维卷积的视差估计分支。结果 在KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute)数据集上进行验证实验,与同类算法比较,本文算法平均相对误差值约为3.2%,远小于基于双目视差图估计算法(11.3%),与基于3维目标检测的算法接近(约为3.9%)。另外,提出的视差估计分支改进对精度有明显的提升效果,平均相对误差值从5.1%下降到3.2%。通过在另外采集并标注的行人监控数据集上进行类似实验,实验结果平均相对误差值约为4.6%,表明本文方法可以有效应用于监控场景。结论 提出的双目目标距离估计网络结合了目标检测与双目视差估计的优势,具有较高的精度。该网络可以有效运用于车载相机及监控场景,并有希望运用于其他安装有双目相机的场景。  相似文献   

8.
目的 基于参考图像的线条画生成是非真实感绘制最为常见的应用之一。尽可能模拟艺术家的创作风格生成疏密得当、具有层次感的线条画是这类工作的主要目标和挑战。本文提出一个自适应线画图绘制算法。方法 首先,将场景图像分割成若干个区域,分别计算每个区域亮度的方差以及每个像素到边界的最小距离,将每个区域的方差和面积的比值作为该区域的复杂度。然后,计算能反映其显著视觉特征的边缘切向流场。最后,使用基于流的各向异性高斯差分滤波生成线条画。在构造边缘切向流时,每个位置的切向量由其邻域的切向量加权而得到。文中增加了一个新的系数项,对于邻域的任意一个位置,如果它和参考位置在区域分类中属同一个类别。则该位置的权值更大。基于流的高斯差分自适应滤波过程中,高斯差分滤波的尺度参数和复杂度以及到区域边界距离有关。细节越丰富,离边界越近,尺度参数取值越小,这样得到的边缘比较细,同时可以防止将相邻小细线条连接成粗线条。然后,将高斯差分滤波结果沿着流线方向进行高斯滤波,对于细节丰富的区域,边缘比较多,尺度参数取值比较小,所连接边缘比较短,可以减少错误边缘可能。结果 对生物、树林、建筑、山河等具有代表性的图像,采用本文算法进行自动实时进行线条绘制,实验结果表明,采用本文算法所生成的线条随着区域场景的复杂程度呈现不同粗细和浓淡的变化,具有一定的层次感。因而本文算法能生成视觉特征鲜明、风格化效果突出的线条画,且能处理各种复杂场景的图像。结论 本文自适应参数的线条画生成算法,其算法参数调节以及算法效果优于固定参数的算法,本文算法在处理日常生活中各类主题场景的图像时均能取得良好效果。  相似文献   

9.
采用积分图块间距离检测图像边缘   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 边缘是图像的重要特征之一,是后续测量、基于形状配准的基础,为了更好地获得图像中的边缘信息,提出一种利用积分图块间距离检测图像边缘的方法。方法 首先,分析欧氏距离图理论,给出采用局部区块内和距离的方式检测图像边缘的方法。其次,提出采用积分图完成高斯模板块内求和算法,并利用这种方法加速完成了图像块内像素求和,以此提高算法的执行速度。最后,给出了本文算法的执行流程。结果 以人工标注模拟图像的边缘为标准,采用本文方法得到的边缘检测结果重叠率高于97%,Canny算法的重叠率为80%、高斯曼哈顿距离与欧式距离算法的重叠率分别低于63%和28%。从真实图像实验结果上看,随着图像尺寸的增加,Canny与本文方法的执行时间均略有增加,但幅度不大,在处理1024×768的图像时分别耗时1.7 s与4.6 s。由于本文方法增加了积分图及块内和的求解,因此耗时略高于Canny方法。综上,采用本文方法获得的边缘检测结果不仅具备较高的重叠率,而且执行时间较少,其执行速度不会随图像尺寸的增加而大幅度降低。结论 由实验结果可见,本文提出的图像边缘检测方法具备较高的准确性与实用性。由于本文方法具备较高的执行速度,因此适用于所有以边缘检测结果为基础的后期图像处理技术,包括对于实时性要求较高的视频流边缘检测与分析。  相似文献   

10.
目的 为了增强图像超分辨率重建的准确性,克服传统插值所产生的边缘模糊与边缘锯齿等负面效果,提出一种基于多方向模板变分模型的单幅图像超分辨率重建方法。方法 首先构建体现28个方向的多方向模板对输入图像的轮廓方向进行计算,同时通过将TV模型引入到图像轮廓的估计中来确定边缘轮廓的最优方向;在此基础上通过进行基于所提出的多方向模板的图像插值来实现图像的超分辨率重建。结果 对比基于活动轮廓的图像边缘插值方法重建的经典高分辨率测试图像,本文方法在平均峰值信噪比和平均结构相似度方面分别提高了1.578 dB和 0.030 02 dB。结论 本文方法可以有效地克服传统插值方法所产生的边缘模糊和边缘锯齿化等负面效果,也避免了较少方向模板所带来的边缘和纹理丰富区域的纹理失真现象,可以取得较好的重建效果。  相似文献   

11.
无人机在进行航拍任务时,会因为机身抖动、地物环境等原因导致采集的图像模糊,对后续提取图像信息造成影响。针对这一问题,提出了一种基于再模糊理论的无参考图像质量检测方法,用来区分清晰和模糊图像。对原始图像进行缩放、灰度化等预处理后附加一定程度的高斯模糊,得到再模糊图像,再分别对两张图像使用拉普拉斯算子提取边缘,得到两张图像的边缘差异图像。通过计算所得的边缘差异图像的标准差与经验得出的划分清晰和模糊图像的阈值相比,判断该图像是否为模糊图像。对人工合成的模糊图像和无人机实拍图像进行实验。实验结果表明,该算法具有较高的模糊图像检测率,表现优于其他图像质量检测方法,且单张图片的检测计算速度很快。  相似文献   

12.
为了提高双目视觉测距系统中图像匹配的实时性与测距的精度,提出一种将显著性检测与焦距拟合相结合的双目测距方法。首先对双目相机进行畸变矫正,并利用双目相机成像的特点拟合相机焦距与目标距离的关系,随后对所得图像进行显著性检测,并提取目标区域,最后,利用surf算子对提取出的区域进行特征匹配,将匹配点代入测距模型中得到目标物体的距离。结果表明:显著性检测方法明显提升算法执行速度,焦距拟合降低双目测距模型误差,明显提升双目测距精度。  相似文献   

13.
单幅图像场景深度的获取一直是计算机视觉领域的一个难题。使用高斯分布函数或柯西分布函数近似点扩散函数模型(PSF),再根据图像边缘处散焦模糊量的大小与场景深度之间的关系估算出深度信息,是一种常用的方法。真实世界中图像模糊的缘由千变万化,高斯分布函数以及柯西分布函数并不一定是最佳的近似模型,并且传统的方法对于图像存在阴影、边缘不明显以及深度变化比较细微的区域的深度恢复结果不够准确。为了提取更为精确的深度信息,提出一种利用高斯-柯西混合模型近似PSF的方法;然后对散焦图像进行再模糊处理,得到两幅散焦程度不同的图像;再通过计算两幅散焦图像边缘处梯度的比值估算出图像边缘处的散焦模糊量,从而得到稀疏深度图;最后使用深度扩展法得到场景的全景深度图。通过大量真实图像的测试,说明新方法能够从单幅散焦图像中恢复出完整、可靠的深度信息,并且其结果优于目前常用的两种方法。  相似文献   

14.
孔颖乔  赵健康  夏轩 《计算机应用》2017,37(6):1798-1802
立体视觉测量系统中,光学系统产生的畸变使目标的成像偏离了理论成像点,导致系统产生测量误差。针对提高系统测量精度的问题,提出一种基于立体视觉的测量方法。首先,根据标定板上各角点的像素分辨率,拟合整个成像平面的四次多项式,且多项式的系数与物体到相机的距离成比例;然后,应用双目测距原理,测量被测物体的纵向距离;最后,基于所得的多项式,应用单目相机测量待测物体的横向尺寸。实验结果表明,对于所提方法,当物体距离相机5 m以内时,其纵向距离误差可以减小到5%以内;当物体距离相机1 m时,其横向宽度测量误差在0.5 mm内,逼近理论最高分辨率。  相似文献   

15.
目的 传统的单目视觉深度测量方法具有设备简单、价格低廉、运算速度快等优点,但需要对相机进行复杂标定,并且只在特定的场景条件下适用。为此,提出基于运动视差线索的物体深度测量方法,从图像中提取特征点,利用特征点与图像深度的关系得到测量结果。方法 对两幅图像进行分割,获取被测量物体所在区域;然后采用本文提出的改进的尺度不变特征变换SIFT(scale-invariant feature transtorm)算法对两幅图像进行匹配,结合图像匹配和图像分割的结果获取被测量物体的匹配结果;用Graham扫描法求得匹配后特征点的凸包,获取凸包上最长线段的长度;最后利用相机成像的基本原理和三角几何知识求出图像深度。结果 实验结果表明,本文方法在测量精度和实时性两方面都有所提升。当图像中的物体不被遮挡时,实际距离与测量距离之间的误差为2.60%,测量距离的时间消耗为1.577 s;当图像中的物体存在部分遮挡时,该方法也获得了较好的测量结果,实际距离与测量距离之间的误差为3.19%,测量距离所需时间为1.689 s。结论 利用两幅图像上的特征点来估计图像深度,对图像中物体存在部分遮挡情况具有良好的鲁棒性,同时避免了复杂的摄像机标定过程,具有实际应用价值。  相似文献   

16.
目的 模糊图像的分析与识别是图像分析与识别领域的重要方向。有些图像形成过程中成像系统与物体之间存在相对旋转运动,如因导弹高速自旋转造成的制导图像的旋转运动模糊。大多数对于这类图像的识别都需要先对模糊图像进行“去模糊”的预处理,且该类方法存在计算时间复杂度较高及不适定的问题。对此,提出一种直接提取旋转运动模糊图像中的不变特征,用于旋转运动模糊图像目标检索和识别。方法 本文以旋转运动模糊的退化模型为出发点,提出了旋转运动模糊Gaussian-Hermite (GH)矩,构造了一组由5个对旋转变换和旋转运动模糊保持不变性的GH矩不变量组成的特征向量(rotational motion blur Gaussian-Hermite moment invariants,RMB_GHMI-5),可从旋转变换和旋转运动模糊的图像中直接进行目标检索和识别,无需前置复杂的“去模糊”预处理过程。结果 在USC-SIPI (University of Southern California — Signal and Image Processing Institute)数据集上进行不变性实验,对原图进行不同程度的旋转变换叠加旋转运动模糊处理,证明RMB_GHMI-5对于旋转变换和旋转运动模糊具有良好的稳定性和不变性。在两个数据集上与同类4种方法进行图像检索实验比较,在80%召回率下,本文方法维数更少,相比性能第2的特征向量,在Flavia数据集中,高斯噪声、椒盐噪声、泊松噪声和乘性噪声干扰下的准确率分别提高25.89%、39.95%、22.79%和35.80%;在Butterfly Image数据集中,高斯噪声、椒盐噪声、泊松噪声和乘性噪声干扰下的准确率分别提高4.79、7.63%、5.65%和18.31%。同时,在上述8个测试数据集中进行对比实验以验证融合算法的有效性,结果表明本文提出的GH矩和几何矩相融合算法显著改善了图像检索效果。结论 本文提出的RMB_GHMI-5特征向量在旋转变换和旋转运动模糊下具有良好的不变性与稳定性,在图像检索抗噪性能方面表现优异。相比同类方法,本文方法更具实际应用价值。  相似文献   

17.
针对无人机对目标的识别定位与跟踪,本文提出了一种基于深度学习的多旋翼无人机单目视觉目标识别跟踪方法,解决了传统的基于双目摄像机成本过高以及在复杂环境下识别准确率较低的问题。该方法基于深度学习卷积神经网络的目标检测算法,使用该算法对目标进行模型训练,将训练好的模型加载到搭载ROS的机载电脑。机载电脑外接单目摄像机,单目摄像头检测目标后,自动检测出目标在图像中的位置,通过采用一种基于坐标求差的优化算法进行目标位置准确获取,然后将目标位置信息转化为控制无人机飞行的期望速度和高度发送给飞控板,飞控板接收到机载电脑发送的跟踪指令,实现对目标物体的跟踪。试验结果验证了该方法可以很好的进行目标识别并实现目标追踪  相似文献   

18.
基于BP神经网络的图像局部模糊测量   总被引:1,自引:0,他引:1       下载免费PDF全文
目的 目前模糊测量方法难以处理存在纹理平坦区域时的局部模糊测量.针对该问题,提出一种基于BP(back propagation)神经网络的图像局部模糊检测方法.方法 该方法采用所有奇异值以描述不同尺度信息随模糊变化情况,并与描述高频信息变化的DCT(discrete cosine transform)非零系数结合,实现奇异值向量和DCT非零系数个数联合的混合模糊测度,达到空频联合的模糊度描述.在此基础上,通过训练BP神经网络分类器,实现图像块模糊值预测.结果 单幅局部模糊图像实验中,较好区分纹理平坦区域和模糊区域的模糊程度;多幅局部模糊图像的统计实验中,召回率-准确率(RP)评估曲线显示在相同召回率下准确率较其他方法高.结论 该方法可以较准确地实现局部模糊图像(特别是存在纹理平坦区域的局部模糊图像)的模糊测量.  相似文献   

19.
提高SLAM(simultaneous localization and mapping)算法的精度和鲁棒性是解决室外移动机器人自主定位问题的关键.针对单目相机在室外复杂环境下易受到遮挡、相机移动过快、图像模糊以及机器人纯旋转下算法精度和鲁棒性下降、低精度IMU(inertial measurement unit)的累...  相似文献   

20.
陈松  李磊磊 《测控技术》2022,41(4):48-53
针对传统的脱靶量测试设备体积庞大、不便移动且测试成本高等缺点,提出了一种基于弹道曲线模型的双目立体视觉的脱靶量测试方法。研究了摄像机的成像模型及坐标系变换,分析了摄像机标定的一般方法,构建了摄像机标定模型,并推导了标定参数的表达式。基于双目立体视觉测试技术设计了弹道曲线模型的弹丸脱靶量测量系统,其测量过程简单且标定结果稳定,可实现弹丸运动目标的快速检测,通过对运动目标的空间定位和轨迹拟合实现了脱靶量的测试。实验结果表明:弹道直线模型和曲线模型均能简便地求解飞行弹丸脱靶量,后者比前者更贴近实际弹丸飞行轨迹,可获得更高精度的脱靶量,弹道曲线模型的脱靶量平均绝对误差(MAE)比直线模型降低了大约一半。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号