共查询到20条相似文献,搜索用时 187 毫秒
1.
2.
3.
同时定位与建图(SLAM)是自动驾驶的基本要求之一。多传感器融合,尤其是激光雷达和相机的融合,对于自动驾驶来说是必不可少的。其中,如何针对各种场景调整不同传感器的置信度是关键问题,基于此,提出一种自适应紧耦合的激光雷达相机融合的SLAM(AVLS)算法。首先,所提AVLS算法建立在基于滑动窗口的因子图上,包含提升整体算法精度和鲁棒性的灵活深度关联和弹性初始化等模块。其次,为了充分探索激光雷达和相机在不同环境中的性能,采用一种基于先验知识的动态加权方案。最后,将所提AVLS算法在两个公开的大规模自动驾驶数据集上进行了全面实验,包括与经典算法的对比及消融实验,实验结果表明,AVLS算法的鲁棒性和精确度可以达到目前领先水平。 相似文献
4.
针对同时定位与建图(SLAM)中存在定位精度不足、匹配特征点误差累积和特征匹配时间较长,提出了一种融合改进RANSAC光流法的优化算法。该方法基于传统RANSAC算法,加入最小二乘法对模型进行迭代优化来估计最优模型,对光流法的误匹配点进行剔除,大量减少图像误匹配特征点;把融合改进后的RANSAC光流法与特征点通过卡尔曼滤波进行融合,最后使用改进后的算法在公开的EuRoC MAV数据集中进行SLAM定位精度实验。实验结果表明:该改进算法能够有效减小光流法特征匹配的误差,从而提高无人机视觉SLAM的定位精度。 相似文献
5.
针对视觉同时定位与地图构建(SLAM)技术在动态环境中存在定位精度低、地图虚影等问题,提出了一种基于深度学习的动态SLAM算法。该算法利用网络参数少且目标识别率高的YOLOv8n改善系统的视觉前端,为视觉前端增加语义信息,提取动态区域特征点。然后采用LK光流法识别动态区域的动态特征点,剔除动态特征点并保留动态区域内的静态特征点,提高特征点利用率。此外,该算法通过增加地图构建线程,剔除YOLOv8n提取的动态物体点云,接收前端提取的语义信息,实现静态语义地图构建,消除由动态物体产生的虚影。实验结果显示,在动态环境下该算法与ORB-SLAM3相比,定位精度提升92.71%,与其他动态视觉SLAM算法相比,也有小幅度改善。 相似文献
6.
7.
8.
通过融合多种传感器,设计了视觉融合同时定位与地图构建(simultaneous localization and mapping,简称SLAM)的基本功能框架,突出了SLAM环境和动态检测功能,重点基于ROS构建了视觉融合SLAM的技术架构,通过DDS实现了多种功能节点的有效通信,较大程度地提升了视觉SLAM的稳定性和鲁棒性. 相似文献
9.
当前视觉即时定位与地图重构技术(SLAM)的过程中,通常采用随机采样一致性(RANSAC)的图像特征匹配算法,随机估计图像模型容易造成算法时间复杂度不确定,进而导致图像匹配时耗过大,难以满足视觉SLAM 实时性的要求。为了改善这一问题,使用渐进采样一致性(PROSAC)的算法对图像特征进行筛选,剔除误匹配特征点,有效改善了图像特征匹配的效率与鲁棒性,进一步增强了视觉SLAM 的稳定性与实时性。试验验证表明,相比于当前视觉SLAM 特征匹配算法,计算效率明显提升。 相似文献
10.
针对动态物体影响传感器进行机器人位姿估计的问题,本文提出了一种基于动态特征剔除点云与图像融合的位姿估计方法。首先,YOLOv4和PointRCNN分别被用于识别图像和点云中的潜在运动目标并提取候选框。其次,在视觉定位方面,双目视觉与稀疏光流被用于路标点的构建与追踪,并根据候选框剔除动态特征点,随后构建重投影误差函数,通过基于RANSAC剔除的非线性优化方法求解相机位姿;在激光定位方面,提取前后帧的直线与平面特征点,并根据候选框进行筛选,基于特征点到直线或平面的距离构建误差函数,进而求解激光雷达位姿。为使系统不再局限于单一传感器的使用环境限制,通过自适应加权方法,有效融合了两种位姿结果。最后,通过KITTI数据集和动态场景采集的数据进行定量实验对比,验证了剔除动态特征后的位姿估计的精确性以及融合算法的有效性。 相似文献
11.
SLAM一直是机器人领域的研究热点,近年来取得了万众瞩目的进步,但很少有SLAM算法考虑到动态场景的处理。针对视觉SLAM场景中动态目标的处理,提出一种在动态场景下的图像处理方法。将基于深度学习的语义分割算法引入到ORB_SLAM2方法中,对输入图像进行分类处理的同时剔除人身上的特征点。基于已经剔除特征点的图像进行位姿估计。在TUM数据集上与ORB_SLAM2进行对比,在动态场景下的绝对轨迹误差和相对路径误差精度提高了90%以上。在保证地图精度的前提下,改善了地图的适用性。 相似文献
12.
13.
针对无人机利用单一传感器进行避障时存在准确度低、信息缺失等问题,提出了一种基于多传感器融合的无人机自主避障方法。通过改进的贝叶斯融合算法将二维激光雷达与深度相机获取的点云信息进行融合,以弥补二维激光雷达无法检测的区域。同时,利用融合点云生成八叉树地图,并根据不断更新的地图信息对无人机进行实时航迹重规划,实现无人机在未知环境中的自主避障。实验结果表明,所研究方法不仅提高了无人机感知周围环境的准确度,融合点云的均方根误差小于0.06 m,还具有良好的避障效果,无人机与障碍物的距离均大于0.5 m,保证了其在未知环境中的安全飞行。 相似文献
14.
15.
16.
《信息通信》2017,(10)
即时定位与地图构建(SLAM)是解决移动机器人在未知非结构化环境中自主导航与控制的关键,一个完整的SLAM系统包括传感器数据处理、位姿估计、构建地图、回环检测四个部分。其中回环检测机制是解决移动机器人的闭环重定位,提高SLAM系统鲁棒性的重要环节。该研究提出一种基于ORB词袋模型的SLAM系统框架,通过研究与分析了使用FLANN算法选取关键帧与匹配帧间特征点,ORB特征描述子对检测速度的提高,通过k-means++算法对特征点进行训练生成含有视觉单词的词袋模型,使用高斯金字塔的直方图交叉核的SVM分类器,使用e PNP算法的增量式帧间位姿估计,回环检测重定位机制等环节,实现了单目视觉SLAM系统的初始化与位姿优化,实现了在丢帧状况下通过词袋模型进行重定位。最后通过搭建实验平台和标准数据集的测试得到的数据结果表明,基于ORB词袋模型的SLAM系统,具有良好的实时性,能够有效提高SLAM系统的重定位准确性,增强了系统的鲁棒性。 相似文献
17.
为了解决视觉同步定位与建图(Simultaneous Localization and Mapping, SLAM)系统在动态场景下容易受到动态物体干扰,导致算法定位精度和鲁棒性下降的问题,提出了一种融合YOLOv5s轻量级目标检测网络的视觉SLAM算法。在ORB-SLAM2的跟踪线程中添加了目标检测和剔除动态特征点模块,通过剔除图像中的动态特征点,提高SLAM系统的定位精度和鲁棒性。改进了YOLOv5s的轻量化目标检测算法,提高了网络在移动设备中的推理速度和检测精度。将轻量化目标检测算法与ORB特征点算法结合,以提取图像中的语义信息并剔除先验的动态特征。结合LK光流法和对极几何约束来剔除动态特征点,并利用剩余的特征点进行位姿匹配。在TUM数据集上的验证表明,提出的算法与原ORB-SLAM2相比,在高动态序列下的绝对轨迹误差(Absolute Trajectory Error, ATE)和相对轨迹误差(Relative Pose Error, RPE)均提高了95%以上,有效提升了系统的定位精度和鲁棒性。相对当前一些优秀的SLAM算法,在精度上也有明显的提升,并且具有更高的实时性,在移... 相似文献
18.
针对激光雷达SLAM算法在室内大范围场景中建图与定位精确度低、鲁棒性差的问题,提出一种激光雷达IMU紧耦合的SLAM方法。该方法基于LeGO-LOAM算法,在点云去畸变环节引入惯性测量单元(IMU)数据,将IMU预积分的结果作为初始位姿,消除点云畸变;在点云配准环节,将IMU预积分的结果作为迭代优化时的初始位姿,提升点云配准精度,从而提高机器人位姿估计的准确性;在后端优化环节,通过构建因子图的方式引入激光里程计因子、IMU预积分因子及回环因子,得到全局最优解,进一步提升建图与定位的精度。为验证所提方法的可行性,设计不同场景下LeGO-LOAM算法与改进SLAM算法的对比实验。实验结果表明,在室内大范围场景下,改进的SLAM算法能够减少轨迹波动,提升建图效果及轨迹精度,增强算法的鲁棒性。 相似文献
19.
已有的实时定位与地图构建(simultaneous localization and mapping,SLAM)方案采用的特征点匹配方法普遍会受视角变化的影响使得特征点的匹配比较困 难,进而 干扰到特征点匹配的精度,最终影响到三维(three-dimensional, 3D) 点云地图构建以及相机运动位姿估计的精度。为 此,本文提出 一种基于注意力机制的特征点匹配网络的SLAM方法。相比于现有的SLA M方法,本 文将SLAM中视觉里程计模块的特征点匹配的方法替换成了一个全新的、基于注意力机制的 特征点匹配网 络的特征点匹配方法,并和传统的特征点提取方法做了一个全新的特征点提取与匹配的组合 ,形成了一个 新的视觉里程计,进而形成了一个新的SLAM方法。首先,通过传统的特征点提取算法进行 特征点的提取, 对提取的特征点及描述子向量进行编码,通过图注意力神经网络进行学习得到匹配描述子, 根据匹配描述 子创建得分矩阵,采用最优传输算法求解最优得分矩阵,计算得到最优匹配点对,到这里就 完成了特征点 提取与匹配的整个过程;基于匹配点对完成相机的定位、建图和回环检测。本文采用KITT I公开数据集 进行实验,实验结果表明采用基于注意力机制特征点匹配网络的SLAM方案,在视角变化不 稳定的情况下,相机运动轨迹误差和相机位姿估计误差的精度明显有所提升。 相似文献