首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 0 毫秒
1.
朱齐丹  李科  雷艳敏  孟祥杰 《机器人》2011,33(5):606-613
提出一种使用全景视觉系统引导机器人回航的方法.利用全景视觉装置采集出发位置(Home位置)的全景图像,使用SURF(Speeded-Up Robust Feature)算法提取全景图像中的特征点作为自然路标点.机器人回航过程中,将当前位置获得的全景图像与Home位置的全景图像进行特征匹配,确定白然路标点之间的对应关系....  相似文献   

2.
针对移动机器人平均路标向量(ALV)的算法性能受自然路标影响较大的问题,提出了一种优化算法.在利用图像特征检测与匹配手段,如SIFT(尺度不变特征变换)、SURF(加速鲁棒特征)等,来获得自然路标的前提下,优化算法首先对原始的ALV算法进行了过程拆解,获得归航子向量;然后利用统计学理论对归航子向量的贡献度进行调整,并剔除误匹配路标;最后将带有权值信息的归航子向量重新整合,获得指向目标位置的归航向量.实验表明,优化的ALV算法有效地提高了自然路标的整体精度,保证了路标的对应性,从而提高了ALV算法的准确性,使机器人可以以更理想的轨迹自主地到达目标位置.  相似文献   

3.
移动机器人视觉导航控制研究   总被引:5,自引:1,他引:5  
该文研究了移动机器人视觉导航的控制问题。针对导航中的图像畸变以及视野有限易造成导航线丢失等问题,提出了一种简单的单目视觉目标定位算法和一种新的控制策略。在导航时,首先利用定位算法精确地获取地面目标的深度信息,然后控制机器人沿一系列切线方向平滑接近导航线(或目标),并根据实施控制的时间间隔控制速度,以保证机器人视野中导航线(或目标)不丢失。实际的应用证明了该定位算法和策略的有效性。  相似文献   

4.
导航技术是移动机器人核心技术,移动机器人又有多种导航方式,本文对各种导航方式进行了分析比较,提出由于计算机视觉理论及算法的发展,又由于和激光、雷达和超声在导航方面相比,视觉导航具有很多优点,因此视觉导航被大量地采用。根据移动机器人是在导航过程中对图像进行处理,实时性差始终是一个非常棘手的问题,提出解决该问题的关键在于设计一种快速图像处理方法。  相似文献   

5.
Using Real-Time Stereo Vision for Mobile Robot Navigation   总被引:9,自引:1,他引:9  
This paper describes a working vision-based mobile robot that navigates and autonomously explores its environment while building occupancy grid maps of the environment. We present a method for reducing stereo vision disparity images to two-dimensional map information. Stereo vision has several attributes that set it apart from other sensors more commonly used for occupancy grid mapping. We discuss these attributes, the errors that some of them create, and how to overcome them. We reduce errors by segmenting disparity images based on continuous disparity surfaces to reject spikes caused by stereo mismatches. Stereo vision processing and map updates are done at 5 Hz and the robot moves at speeds of 300 cm/s.  相似文献   

6.
视觉导航作为一种重要的机器人导航方式正日益受到人们的关注,为了解决目前采用视觉导航存在的算法设计复杂、导航性能差等问题,提出一种新的室内移动机器人视觉导航系统设计方案。首先阐述了该导航新方法的设计思想,然后介绍了采用该方法的导航系统的整体结构设计。利用放置在室内固定位置的摄像机采集室内环境的视频图像,设计了实时图像分析算法实现障碍物躲避、机器人位置跟踪等功能,为机器人的行走提供导航依据,同时通过无线通信的方式发送控制指令,实现对室内移动机器人的行走过程导航控制。  相似文献   

7.
Monocular Vision for Mobile Robot Localization and Autonomous Navigation   总被引:5,自引:0,他引:5  
This paper presents a new real-time localization system for a mobile robot. We show that autonomous navigation is possible in outdoor situation with the use of a single camera and natural landmarks. To do that, we use a three step approach. In a learning step, the robot is manually guided on a path and a video sequence is recorded with a front looking camera. Then a structure from motion algorithm is used to build a 3D map from this learning sequence. Finally in the navigation step, the robot uses this map to compute its localization in real-time and it follows the learning path or a slightly different path if desired. The vision algorithms used for map building and localization are first detailed. Then a large part of the paper is dedicated to the experimental evaluation of the accuracy and robustness of our algorithms based on experimental data collected during two years in various environments.  相似文献   

8.
为了便于掌握海上试验进度和协调各参试专装同步操作,需要实时大范围的影像监视参试船特定区域周围360°场景的试验情况,文中采用全景视觉技术生成的全景图像获得水平360°环境信息,来满足这种大视场影像监视需求。文中分析并实现了将圆形全景图展开还原成符合普通视觉的矩形全景图的三种还原算法,并结合图像插值、无线影音、视频流采集等技术探讨了全景视觉在靶场海上试验中的具体应用,通过实物模型验证了全景视觉可较好地运用到海上试验中。  相似文献   

9.
在受生物导航方式启发的局部视觉归航算法中,ALV(average landmark vector)算法因其模型简单、归航性能较好以及所需存储空间小等优点受到了广泛的重视.在非结构化环境中,ALV算法常常需要使用图像的局部特征作为自然路标点,在这种情况下,路标的对应性问题难以保证,同时在保证归航性能的前提下如何合理地精简路标数量也尚无有效的解决方法.针对上述问题,对基于双曲面镜的折反射全景图像进行了研究,提出了horizon环域的概念.在环域内提取SIFT(scale invariant feature transform)特征作为自然路标点并结合ALV模型提出了一种改进的基于自然路标的ALV算法.改进算法有效地缩小了路标点的提取区域,较好地保证了路标点的对应性并精简了路标点的数量.多个实际场景的实验表明,这种算法有效提高了归航精度.  相似文献   

10.
提出了一种基于结构光的弧焊机器人双目立体视觉测量控制系统。该系统硬件主要由结构光发射器、CCD摄像机、机器人、焊机以及通过局域网连接的两台控制计算机组成。从结构光照射形成的两幅图像中提取对应特征点,结合摄像机和激光器之间的几何位置关系,分别求取三组对应的特征点空间坐标,经过信息融合后得到特征点对应的空间位置。利用递推最小二乘法拟合焊缝的空间位置,根据一定的步长选取对应直线上的点传送到运动控制计算机以进行运动轨迹规划,并通过运动控制卡驱动机器人运动完成焊接任务。实验表明该系统性能较好。  相似文献   

11.
仿生机器人在定姿过程中受到空间扰动因素的影响容易产生控制误差,需要对机器人进行精确标定,提高仿生机器人的定位控制精度,因此提出一种基于双目视觉导航的仿生机器人鲁棒控制算法。利用光学CCD双目视觉动态跟踪系统进行仿生机器人的末端位姿参量测量,建立被控对象的运动学模型;以机器人的转动关节的6自由度参量为控制约束参量,建立机器人的分层子维空间运动规划模型;采用双目视觉跟踪方法实现仿生机器人的位姿自适应修正,实现鲁棒性控制。仿真结果表明,采用该方法进行仿生机器人控制的姿态定位时对机器人末端位姿参量的拟合误差较低,动态跟踪性能较好。  相似文献   

12.
介绍工业机器人计算机视觉系统的工作原理和系统组成。该系统具有对摄像机视场中特征点自动定位和跟踪功能。结合工业机器人控制软件,该系统使工业机器人能实时地调整运动轨迹,提高其适应性和灵活性。  相似文献   

13.
This paper presents the design, implementation and evaluation of a trainable vision guided mobile robot. The robot, CORGI, has a CCD camera as its only sensor which it is trained to use for a variety of tasks. The techniques used for training and the choice of natural light vision as the primary sensor makes the methodology immediately applicable to tasks such as trash collection or fruit picking. For example, the robot is readily trained to perform a ball finding task which involves avoiding obstacles and aligning with tennis balls. The robot is able to move at speeds up to 0.8 ms-1 while performing this task, and has never had a collision in the trained environment. It can process video and update the actuators at 11 Hz using a single $20 microprocessor to perform all computation. Further results are shown to evaluate the system for generalization across unseen domains, fault tolerance and dynamic environments.  相似文献   

14.
Kinect相机不仅能够获取彩色图像,还可以得到相应的深度信息.本文探讨了一种通过Kinect相机来实现里程计的方法,该方法由Kinect相机获取周围环境的连续帧信息,提取并匹配连续帧间的SIFT特征点,获取图像帧的描述子,通过特征点的位置变化计算机器人的位姿、里程编码等,从而实现视觉里程计的功能.  相似文献   

15.
Abstract

In this article, the problem of real-time robot exploration and map building (active SLAM) is considered. A single stereo vision camera is exploited by a fully autonomous robot to navigate, localize itself, define its surroundings, and avoid any possible obstacle in the aim of maximizing the mapped region following the optimal route. A modified version of the so-called cognitive-based adaptive optimization algorithm is introduced for the robot to successfully complete its tasks in real time and avoid any local minima entrapment. The method’s effectiveness and performance were tested under various simulation environments as well as real unknown areas with the use of properly equipped robots.  相似文献   

16.
Wyeth  Gordon 《Machine Learning》1998,31(1-3):201-222
This paper presents the design, implementation and evaluation of a trainable vision guided mobile robot. The robot, CORGI, has a CCD camera as its only sensor which it is trained to use for a variety of tasks. The techniques used for train ing and the choice of natural light vision as the primary sensor makes the methodology immediately applicable to tasks such as trash collection or fruit picking. For example, the robot is readily trained to perform a ball finding task which involves avoiding obstacles and aligning with tennis balls. The robot is able to move at speeds up to 0.8 ms-1 while performing this task, and has never had a collision in the trained environment. It can process video and update the actuators at 11 Hz using a single $20 microprocessor to perform all computation. Further results are shown to evaluate the system for generalization across unseen domains, fault tolerance and dynamic environments.  相似文献   

17.
计算机视觉在机器人目标定位中的应用   总被引:4,自引:0,他引:4  
王俊修  孔斌 《微机发展》2003,13(12):7-10
计算机视觉是一门新兴的发展迅速的学科,计算机视觉的研究已经历了从实验室走向实际应用的发展阶段。由于视觉信息容量大,在实际应用中直观有效,所以运用视觉来寻找和确定目标的方位是机器人发展中一个很重要的方法,近年来它广泛应用于工业自动化装配领域中,同时对视觉系统的要求也越来越高。文中介绍并分析了当前国内外基于视觉的几种主要的目标定位方法在实际中的应用,例如移动机器人自主导航定位系统、手眼立体视觉系统等。  相似文献   

18.
提出了一种新颖的基于运动视的定位方法.该方法从机器人接近的目标上选取两个特征点并根据它们的图像坐标确定机器人运动前后相对于目标的位姿.本文还提出了一种能够更准确地找出特征点图像坐标的搜索算法.试验结果表明该方法有较高的定位精度和较强的鲁棒性.  相似文献   

19.
基于视觉的机器人定位精度提高方法   总被引:2,自引:0,他引:2  
定位是确定机器人在其工作环境中所处位置的过程,精确、可靠地实现定位是移动机器人应该具备的一项最基本也是最重要的功能之一。针对机器人在完成穿过门的导航任务过程中,现有的视觉定位方法存在精度不高,不能为机器人的导航提供精确位置信息的问题,提出了一种基于离线学习的方法来得到摄像机的内部参数随机器人位置的变化关系,使机器人在粗定位的基础上,自适应地调节摄像头的内部参数,修正定位结果,达到提高定位精度的目的。实验证明了该方法的有效性。  相似文献   

20.
This article describes a connectionist vision system for the precise control of a robot designed to walk on the exterior of the space station. The network learns to use video camera input to determine the displacement of the robot's gripper relative to a hole in which the gripper must be inserted. Once trained, the network's output is used to control the robot, with a resulting factor of five fewer missed gripper insertions than occur when the robot walks without sensor feedback. The neural network visual feedback techniques described could also be applied in domains such as manufacturing, where precise robot positioning is required in an uncertain environment.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号