首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
李修云  梁山  赵聃敏 《机床与液压》2016,44(12):122-128
在室外环境中,由于车轮打滑、里程计存在严重的累积误差,同时由于二维激光测距仪扫描到环境信息量少,在进行地图匹配时,机器人常常陷入相似或对称环境,导致定位失败.针对以上问题,在二维激光地图匹配的基础上,提出了利用单目视觉信息补偿激光信息与里程计信息的定位方法.该方法利用单目摄像机获取环境中的色块信息补偿二维激光信息;摄像机同时作为视觉里程计实时辨识车轮打滑,校正里程计的误差;最后利用粒子滤波算法融合多传感器信息.该实验利用Pioneer3-AT机器人平台在大学校园进行,实验证明该方法具有较高的定位精度.  相似文献   

2.
王立玲 《机床与液压》2023,51(17):39-44
针对弱纹理环境下SLAM系统只依靠单一传感器鲁棒性较差的问题,提出一种视觉、单线激光雷达与惯性相结合的机器人SLAM算法。在视觉与雷达预处理阶段,视觉提取点线特征,同时雷达帧间匹配过程采用激光点到其最近两个点连线的距离构建误差方程,实现更高精度匹配效果。采用惯性传感器与轮速里程计进行雷达运动畸变校正,同时雷达估计信息为单目点线特征三角化提供良好深度值,再利用点线视觉信息、雷达点云信息与惯性测量单元紧耦合优化机制提高机器人SLAM的精确度。最后,将该方法在仿真环境和真实弱纹理环境进行实验。结果表明:该方法定位准确率达到98.6%,在弱纹理环境中定位效果具有较强的鲁棒性和准确性,满足实际需求。  相似文献   

3.
为了提高移动机器人在未知环境下定位精度,使用里程计结合高清摄像机单目视觉测距对移动机器人定位技术进行了研究,针对编码器短距离定位精确,长距离定位存在积累误差的问题,提出非接触式的基于二维码单目视觉测距的方法实现移动机器人的定位。在二维码世界坐标已知的情况下,移动机器人向前运动,高清摄像机通过识别二维码,得知二维码的世界坐标,由此推导出机器人相对于二维码的世界坐标,得出的机器人坐标是基于二维码的绝对坐标值,故消除了编码器存在的累计误差,从而使移动机器人定位更加准确。与传统的里程计定位方式相比,该定位算法定位成功率提升30%~50%。  相似文献   

4.
提出一种基于ORB(oriented FAST and rotated BRIEF)特征和里程计信息的移动机器人视觉导航方法。该方法提取输入场景的ORB特征作为显著路标,同时提取机器人里程计信息计算行为模式,将显著路标和行为模式作为状态节点进行机器人环境拓扑地图的构建。基于特征匹配技术进行机器人的状态定位,并选择状态中对应的行为模式实现机器人的路径跟踪导航,且在导航过程中有防止偏移既定路线的调整机制。实验表明:文中的方法能够较好的完成机器人的导航任务,并且对环境中的动态信息具有一定的鲁棒性。  相似文献   

5.
王立玲  李森  马东 《机床与液压》2021,49(24):17-22
针对移动机器人室内定位过程中,单目视觉难适应光照变化、里程计累计误差导致定位误差较大问题,提出边缘侧多传感器融合的定位方法.以稀疏直接法(半直接法)作为单目视觉的前端,实时单目相机估计位姿,通过惯性传感器恢复尺度输出位置信息,并且获取IMU的加速度以及偏航角、里程计当前速度,通过扩展卡尔曼滤波算法融合3种传感器信息,实现更加精确的定位.在移动机器人侧处理传感器读取的信息,从而减小机器人体积.边缘侧混合式多传感器信息融合使移动机器人在单个传感器失效以及无法人为干预时,也能够精确实时地在多种复杂环境中完成自主定位.  相似文献   

6.
高精度定位是室内移动机器人的基础,针对视觉里程计在室内定位中存在的精度与累计误差的问题,提出基于ORB-SLAM2与IMU的VIORB-SLAM2视觉惯性组合定位方法,首先建立视觉里程计与机器人的坐标系联系。然后利用惯性传感器构建机器人运动预测模型,基于Kinect使用ORB-SLAM2输出视觉里程计作为机器人位姿更新,通过扩展卡尔曼滤波器对视觉里程计与IMU输出的位姿进行最优估计。设计了硬件和软件平台对提出的方法进行实验。实验表明该方法优于单独使用传统的轮式里程计与视觉里程计,有效提高了机器人移动过程中的定位精度,减少误差累积。  相似文献   

7.
提出了一种基于单目视觉和激光雷达的同步定位与制图融合语义信息的新方法,该方法利用从单目视觉中提取的特征和在激光雷达深度地图中的对应关系来获得相对于关键帧的姿态数据,同时对图像进行语义分割;通过从深度卷积神经网络CNN获得的语义特征来细化语义信息,地图中的每个点都与一个语义特征相关联,以执行语义引导的本地和全局姿态优化。提出的语义标记和SLAM的耦合具有更好的鲁棒性和准确性。在室内环境中对装备单目视觉和激光雷达的移动机器人进行验证实验,实验结果表明:该方法可以提高机器人导航精度,实现机器人智能自主导航,同时也可以提供语义信息的图像数据。  相似文献   

8.
为了解决传统采用立体视觉和模板匹配方法实现焊缝起始点自动化导引过程中存在的算法复杂、运算速度慢以及导引精度不高等问题,提出了一种基于特定平面的单目视觉焊缝起始点导引方法。首先,采用"单目双位"和随机一致性算法对放置待焊工件的工作平面进行标定,将导引范围限制在该特定平面上;然后以手持点激光作为主动光源照射到该平面上,在保持摄像机坐标系姿态不变的情况下,导引摄像机至焊缝起始点,进而计算该点在机器人基坐标系下的三维坐标指导机器人运动使焊枪到达焊缝起始点。  相似文献   

9.
基于单目视觉提出了工业机器人拆垛系统构想。为实现工业机器人视觉拆垛系统中机器人精确运动控制与工件位姿识别,运用D-H位移矩阵法建立了机器人运动学模型,得到机器人末端相对机器人坐标系的位姿信息。基于形状模板匹配法提出目标图像识别算法,得到各个目标图像在相机坐标系下的位姿信息;将三维视觉模型与机器人运动学模型进行信息融合,建立机器人视觉拆垛控制系统数学模型。基于CCD工业相机、4-DOF工业机器人搭建视觉定位抓取实验系统。通过对空间目标进行抓取的实验,验证基于单目视觉的工业机器人拆垛系统的正确性、精确性、鲁棒性。  相似文献   

10.
针对工业上单目视觉系统难以适应工件Z轴位置变化的问题,开发基于单目视觉的Z轴位置自适应识别定位方法与系统。采用激光三角测距原理检测工件坐标系平面与相机坐标系平面的距离,配合下位机微机控制系统实现工件平台Z轴位置自适应,进一步融合HSV颜色空间模型,通过改进模板匹配算法完成工件识别定位。联合Halcon与Visual Studio进行单目视觉Z轴位置自适应识别定位系统软件开发以及实验验证。结果表明:该系统在工作范围内平均定位误差小于1 mm,具有较好的Z轴位置自适应调节能力和较高的定位精度。  相似文献   

11.
针对总装生产线精密装配现状,项目设计开发了一种机器视觉定位引导系统,主要实现工业机器人在运动过程中完成在线采集不规则工件图像、视觉定位、角度补偿及精密装配作业。该系统首先采集实时工件图像,利用改进优化的九点标定算法对机器人进行视觉标定可以提高算法的精度;通过预处理操作获取质量较好的图像,按顺序创建卡尺工具,采用加权最小二乘法拟合工件亚像素边缘,再根据相关二维测量算法获取工件中心坐标。最终将得到的位姿数据传送给6轴机器人进行精密装配任务。实验结果表明,该视觉定位引导系统具有现场环境下的高精度定位检测功能,自动化装配定位精度在X方向最大定位误差为0.0281mm、Y方向最大定位误差为0.026mm,足以达到自动化装配生产线的技术要求,具有较好的应用前景和参考价值。  相似文献   

12.
在工业生产中,工业机器人如何能够准确地抓取和摆放工件是自动化生产中的一个重要问题,而问题的关键是准确地获取工件目标位置和姿态的信息。针对此问题,以图像辨识、处理及视觉定位为主要研究内容,设计了一种处理简单、计算准确的单目视觉定位系统。该系统包含静态图像采集平台、图像测量模块及与之匹配的三维空间中单目定位算法与姿态测量算法。经测试实验,并通过对数据和误差进行分析,系统满足自动化生产过程中对工件的空间定位与姿态测量的要求。  相似文献   

13.
为实现动态场景下移动机器人自主定位和建图,解决传统视觉里程计方法跟踪效果差及累积误差问题,提升闭环检测的准确性和鲁棒性,提出融合深度学习的同时定位与地图构建方法。采用四叉树算法均匀化特征分布,解决动态场景特征聚集问题;通过优化的目标检测网络识别场景动态语义信息,剔除动态物体对位姿估计的干扰;充分提取场景空间结构信息,结合点特征和线特征实现位姿跟踪及回环检测,构建全局一致的环境地图。TUM数据集和真实场景实验结果表明:改进方法提升了移动机器人定位和建图的准确性和鲁棒性。  相似文献   

14.
针对目前工业机器人上料时大都采用预先示教的方式,一旦工作条件发生变化就会导致抓取失败的问题,研究了一种基于视觉引导FANUC机器人的抓取系统,提高了机器人柔性化抓取能力。系统采用单目视觉定位方法:将图像中的特征点通过相机标定参数、Eye-in-Hand手眼标定参数转换为机器人基坐标系下的位姿,利用FANUC Robot Interface实现上位机与机器人通信并把定位结果发送到机器人位置寄存器,引导机器人运动到相应位置并通过末端执行器完成对空心圆柱体工件的抓取。经过多次抓取实验数据分析,该系统定位误差在0.5mm以内,具有很好的实际应用价值。  相似文献   

15.
为了在复杂环境中进行工业焊接机器人空间定位,设计了一套基于视觉反馈的焊接机器人定位试验系统,详细介绍了摄像机标定、图像特征点提取、立体视觉匹配算法和数据通讯等关键技术,并进行了实际的现场试验。试验结果表明,该系统及相关技术能够提取数量相对较多的特征点,图像匹配保持了很高的匹配正确率和速度。试验结果为机器人前端空间定位及其应用提供了保障,为工业机器人自主焊接奠定了基础。  相似文献   

16.
基于VisionPro的工业机器人视觉定位系统   总被引:1,自引:0,他引:1  
基于美国Cognex公司的VisionPro机器视觉开发软件对工业机器人视觉定位系统进行开发,可以加快应用程序开发周期,从而降低公司周期成本.视觉定位系统基于VisionPro采用C#编程语言进行开发,利用VisionPro中的图像获取、摄像机标定、目标物体匹配等工具完成目标定位和输出结果.实验证明该视觉定位系统具有实用意义.  相似文献   

17.
摄像机静标定技术在机器人视觉目标定位中的应用研究   总被引:1,自引:0,他引:1  
利用机器人视觉技术对目标进行定位与分检中,视觉系统对目标的精确定位是其关键技术之一。利用基于线段斜率的摄像机静标定技术对摄像机镜头进行了标定,将标定的镜头径向畸变系数应用于目标位置坐标计算中。经标定后的目标坐标位置数据引导机器人末端执行器完成对目标的定位,实验结果表明了该方法的有效性。  相似文献   

18.
为解决目前现有激光切割视觉系统单目摄像机标定算法存在的抗噪性能差、精度低等问题,提出一种改进的基于九圆点的摄像机自标定方法。对算法中的理论进行了分析和实验验证。将改进的九圆点标定算法与现有的单目摄像机快速标定算法进行对比实验。结果表明:改进的摄像机自标定算法相对于现有的单目摄像机快速标定算法抗噪性能更好、精度更高。  相似文献   

19.
针对充电机器人插接充电枪的控制要求,提出了充电插座定位方法。采用九点标定法确定机器人OYZ平面偏移量与成像平面变化量之间的映射关系;通过示教确定标准拍摄位置、拍摄距离及充电插座的标准位置及其在采集图像中的像素坐标。定位时,激光测距仪确定充电插座相对标准位置的X轴距离变化量,同时机器人移动到检测拍摄位置,由单目视觉系统通过形状模板匹配和映射关系确定充电插座在OYZ平面的偏移量,最后,结合标准位置获得充电插座的空间位置。实验验证和样机测试表明,定位误差小于0.5 mm,成功率超过95%,准确性和可靠性满足充电机器人应用要求。  相似文献   

20.
针对室内未知环境下单一传感器定位累积误差大、受环境局限等缺点,设计一种多传感器非线性融合定位系统,以提高移动机器人自主导航的定位精度。该系统通过高斯牛顿方程对由激光雷达、惯性测量单元、轮式里程计测量得到的位姿信息进行融合优化,补偿由于在室内环境信息下单一传感器定位精度低所带来的定位误差。实验结果表明:应用多传感器融合定位系统的移动机器人在长6 m、宽3 m的室内面对曲折复杂的路径和各种噪声干扰时运行总路程12.8 m后,可以将定位误差稳定在0.106 3 m内,并将平均相对误差稳定在0.716%左右。与现有方法对比,使用该方法提高了室内移动机器人定位的精度和鲁棒性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号