首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 406 毫秒
1.
以MOTOMAN-SV3X机器人、摄像机和传动带为基础,构建了一个基于机器视觉的机器人目标抓取系统.本系统中摄像机和机器人分别布置在传动带两端,其工作原理为:利用视觉定位和系统标定结果,经过坐标系转换将位姿信息转化到机器人基础坐标系中,然后根据位姿信息进行运动学逆解得相应的控制文件,最终实现摄像机在一端拍摄,机器人在另外一端对目标进行抓取.抓取实验结果验证了此系统的可行性和实用性,为提高生产线的自动化程度提供了一种新的方法,对后续的相关研究做了铺垫.  相似文献   

2.
为提高家电装配生产线自动化水平和生产节拍,提出采用基于机器视觉的跟踪抓取和装配系统代替人工进行分拣上料和装配工作。使用Open CV进行摄像机内外参数标定,运用基于1DPHT方法求取目标位姿,采用卡尔曼滤波算法对目标位置进行跟踪预测。并搭建基于SCARA机器人的视觉跟踪抓取平台和基于6R机器人的装配平台,实验表明该系统能够实现2D空间移动目标的有效抓取和装配,且工作效率和精度较高。  相似文献   

3.
为了满足生产制造过程中物料无序分拣的需要,设计基于机器视觉的机器人作业目标定位系统。利用Qt开发人机交互界面,实现图像采集处理、通信和机器人运动控制功能。对图像进行阈值分割等处理,得到理想工作区域。通过机器人视觉系统标定实现相机像素坐标和机器人基坐标之间的转换,得到机器人坐标系下的工件位姿识别。在机器人目标抓取平台上随机摆放一定数量的工件进行数据采样,结果表明:系统准确度以及速度具有优势。  相似文献   

4.
针对传统工业机器人在移动目标的抓取中存在灵活性和位姿适应能力差的问题,以开源机器人操作系统(ROS)为平台进行基于视觉反馈的动态抓取策略研究。在ROS中搭建UR5机械臂动态抓取系统,并对机械臂进行正逆运动学分析;提出基于RGB颜色空间和SITF算法结合的新型特征识别方法以提高识别效率;设计注视逼近的视觉反馈控制策略,实现机械臂对传送带上移动目标的抓取操作。结果表明:所提策略识别成功率达到99.6%,逼近抓取成功率达到98.33%,验证了机器视觉主导的反馈抓取算法基本满足工程实际应用,有较高的可行性和准确性。  相似文献   

5.
针对目前工业机器人上料时大都采用预先示教的方式,一旦工作条件发生变化就会导致抓取失败的问题,研究了一种基于视觉引导FANUC机器人的抓取系统,提高了机器人柔性化抓取能力。系统采用单目视觉定位方法:将图像中的特征点通过相机标定参数、Eye-in-Hand手眼标定参数转换为机器人基坐标系下的位姿,利用FANUC Robot Interface实现上位机与机器人通信并把定位结果发送到机器人位置寄存器,引导机器人运动到相应位置并通过末端执行器完成对空心圆柱体工件的抓取。经过多次抓取实验数据分析,该系统定位误差在0.5mm以内,具有很好的实际应用价值。  相似文献   

6.
基于单目视觉提出了工业机器人拆垛系统构想。为实现工业机器人视觉拆垛系统中机器人精确运动控制与工件位姿识别,运用D-H位移矩阵法建立了机器人运动学模型,得到机器人末端相对机器人坐标系的位姿信息。基于形状模板匹配法提出目标图像识别算法,得到各个目标图像在相机坐标系下的位姿信息;将三维视觉模型与机器人运动学模型进行信息融合,建立机器人视觉拆垛控制系统数学模型。基于CCD工业相机、4-DOF工业机器人搭建视觉定位抓取实验系统。通过对空间目标进行抓取的实验,验证基于单目视觉的工业机器人拆垛系统的正确性、精确性、鲁棒性。  相似文献   

7.
为了提高Delta机器人动态抓取的精度与速度,提出了一种基于欧姆龙NJ控制器的Delta机器人控制系统。通过采用欧姆龙NJ运动控制器和EtherCAT内部高速总线将Delta机器人的运动控制和外部运动逻辑控制进行无缝对接,实现一体化控制。同时为了提高抓取效率,利用Delta机器人视觉系统识别抓取目标的位置,去掉重复图像信息,进而提出一种动态的抓取算法,实现了机器视觉与机器人动态抓取的完美结合。通过对样机进行测试表明:该Delta机器人在分拣与跟踪目标过程中漏抓率小于2%,误抓率为0,表明该系统能够达到抓取系统的实时性要求,在实际工程中具有一定的应用价值。  相似文献   

8.
为了提高Delta机器人在自动化拾取作业中的控制精度、速度及系统的实时性和可靠性,提出基于欧姆龙Sysmac自动化平台对Delta机器人控制系统进行设计,采用NJ系列机器人控制器和控制用高速网络EtherCAT,将机器人的运动控制和周边运动的逻辑控制进行统一,实现一体化控制,并通过视觉系统判断抓取对象的位置偏差,实现精确定位,展现机器人与视觉系统的完美配合。验证工作基于Delta机器人的动态抓取实验平台展开,顺利地完成了"检测—跟踪—抓取—搬运"实验,实验结果充分证明了方案的可行性。  相似文献   

9.
为了解决传统工业机器人无法对多个不定位姿的工件进行分拣抓取的问题,搭建一套基于机器视觉的零件分拣及上下料系统。所搭建系统能够较准确地对铝件和有机玻璃件进行分拣,并对工件的位姿进行识别,最后将结果换算到机器人的世界坐标系下,对工件进行准确抓取和上下料。其中针对工件的分拣,提出了通过条形码进行识别分拣的方法,此方法简单有效,快速便捷。对与背景对比度不高的透明有机玻璃件的位姿识别,提出一种自适应调参线性变换方法,从而准确识别出透明件的位姿信息。经实验测试,所搭建系统具有较高的准确性。  相似文献   

10.
针对传统离线编程系统通用性差、可靠性低和二次开发难度大等问题,开发一套基于机器视觉的工业机器人离线编程系统。基于模块化思想,将该系统划分为机器视觉模块、虚拟环境模块、运动学模块、轨迹规划模块、离线程序模块和外部通信模块。借助机器视觉模块解构视觉系统与机器人末端位姿的坐标映射关系,得到规划机器人运动所需的位姿数据;基于虚拟现实建模语言构建机器人虚拟仿真环境,基于运动学模块与轨迹规划模块将位姿数据转化为机器人的作业〖JP2〗指令;基于离线程序模块与外部通信模块实现控制器指令与虚拟仿真环境的无缝衔接。最后,以一种六轴工业机器人为测试对象验证了该离线编程系统的基本功能。实验结果表明:该系统定位误差最大为0.4 mm,精度高,可满足工业应用需求。  相似文献   

11.
为了减少机械臂在产品分类和抓取过程中的执行时间,减少定位误差,提高生产效率,提出基于视觉反馈机制的机器人控制方法。针对传统机器人只根据待抓物体特征点进行识别的局限性,根据机械臂系统可同时检测对象颜色和形状属性,提出基于RGB颜色空间和surf算法结合的目标对象特征提取方法;结合机械臂空间移动过程方法的研究,从机械臂逆运动学的角度出发,对以完成位姿定位的物体进行抓取;使用众为创造科技有限公司生产的xArm机器人验证所提方法的有效性和鲁棒性,结果表明该视觉识别方法有效提高了机器人抓取的精准性。  相似文献   

12.
针对机器人在工业生产线抓取过程中工件产生的偏移现象,对相关视觉算法和通讯技术进行了研究。并以ABB公司的IRB1410型号机器人在管板焊接生产线中的视觉自动定位系统为研究对象,对摄像机进行标定,完成对工件坐标系转换与工件位姿的亚像素精度参数的提取,以便于计算出机器人所需要的工件偏差量参数,最后在C#环境下对计算机与机器人通讯进行设计,将偏差量传递给机器人控制柜完成对工件坐标系的实时修正。最后通过实验验证,可以对不同位姿的工件进行有效的抓取。  相似文献   

13.
为改善表面贴装(SMT)中零件的定位和贴装效率,提出了由上CCD的"粗定位"实现数据获取和零件抓取,到由下CCD的"二次定位"实现贴装的定位策略。将机器视觉与运动控制相结合,采用螺旋启发式算法遍历工作台,根据形状匹配和零件像素面积为判断条件,实现了全部待贴装零件与贴装工位的位姿定位和信息获取。应用了编程语言中数据库链表存储和指针技术,完成了位姿矩阵信息的存储与读取。采用快速排序算法,将位姿数据重新排序,以矩阵A和B为边界条件,最终实现了"数据获取—零件抓取—零件贴装—判断贴装"4个环节的贴装过程。为提高表面贴装效率和减少贴装错误提供了指导。  相似文献   

14.
针对总装生产线精密装配现状,项目设计开发了一种机器视觉定位引导系统,主要实现工业机器人在运动过程中完成在线采集不规则工件图像、视觉定位、角度补偿及精密装配作业。该系统首先采集实时工件图像,利用改进优化的九点标定算法对机器人进行视觉标定可以提高算法的精度;通过预处理操作获取质量较好的图像,按顺序创建卡尺工具,采用加权最小二乘法拟合工件亚像素边缘,再根据相关二维测量算法获取工件中心坐标。最终将得到的位姿数据传送给6轴机器人进行精密装配任务。实验结果表明,该视觉定位引导系统具有现场环境下的高精度定位检测功能,自动化装配定位精度在X方向最大定位误差为0.0281mm、Y方向最大定位误差为0.026mm,足以达到自动化装配生产线的技术要求,具有较好的应用前景和参考价值。  相似文献   

15.
目前大部分工业装配生产线中机器人抓取待装件都是预先将固定类型的工件进行机械定位。为了提高机器人柔性抓取能力,实现了双目视觉引导机器人的抓取系统。文章通过定位工装板来间接定位工件的方法来完成双目视觉引导机器人抓取,首先通过双目视觉系统拍摄的图像识别工装板上6个定位孔,计算孔中心在相机坐标系下的位置,利用这6个定位孔中心空间位置用最小二乘法拟合出最优的工装板平面,由于工件相对于工装板的位置固定,可求得工件相对于相机坐标系的位置,进而通过标定参数转化为在机器人基坐标系下位置和姿态,供机器人抓取工件。经过多次工件抓取实验,分析数据得出,系统距离定位误差小于0.5mm,满足工业生产要求且适应于多种类型工件的抓取,具有通用性。  相似文献   

16.
针对工业机器人传统示教方式存在示教难、示教慢的问题,基于双目视觉提出构建机器人快速示教系统。该系统将双目视觉模块固接在机器人末端工具上,减小示教范围限制;设计出一种带有特征板和位姿测量杆件的手持示教装置,用于对设定点进行快速位姿示教;采用最小二乘法实现特征板到位姿测量杆件末端的平移参数标定。该系统通过双目视觉模块采集手持示教装置特征板图像,并进行图像处理获得末端点的位姿信息;将该位姿信息转换到机器人基坐标系下,实现机器人示教再现。搭建川崎RS010NA六自由度工业机器人的双目视觉快速示教系统,进行空间25点的示教复现测试,机器人示教复现位置平均误差为2.427 mm;采用移动示教后,平均位置误差下降25.3%;测试结果表明该系统具备可行性,且移动示教可以提高示教复现精度。  相似文献   

17.
为了保证机器人在任意的抓取位姿皆能够完成3种形状轴孔零件的装配任务,提出了一种利用力传感器实现主从双臂协调运动的轴孔装配策略。详细描述了该策略在3个不同阶段的控制方法,在理论上保证了该策略的可行性。搭建了实验平台,针对3种不同形状的零件,分别采用4组不同的抓取位姿进行了实验。实验结果表明:由于零件形状的不同使得双臂在Z轴方向的调整角度不同,导致了装配任务耗时的差异性;对任意形状的零件以任意的位姿抓取,系统均能够在最短的时间内搜索出准确的装配位姿,以完成各种复杂形状轴孔零件的装配任务,验证了所提出的主从双臂协调下的轴孔装配策略的可行性和有效性。  相似文献   

18.
在不确定性动态扰动作用下,机器人视觉系统的各个位姿分量会产生不同量级的定位误差。为了量化各位姿分量的误差大小,提出一种视觉定位精度的灰色评定方法。首先,利用P3P特征点建模方法,建立机器人视觉系统的坐标映射模型;然后,利用GM(1,1)模型,分别对摄像机内参标定参数、2D坐标参数、3D坐标参数建立有干扰和无干扰条件下的灰色标准差模型;最后,将高斯噪音误差引入灰色标准差模型中,分析各视觉参数对机器人定位精度的量化影响。实验表明机器人视觉系统的位置精度优于±6mm,姿态精度优于±1.2°。  相似文献   

19.
针对传统机器人结构化示教抓取无法满足智能制造生产过程中实际抓取需求的问题,对机器人在非结构化场景下的多目标灵活抓取进行了研究,在分析了传统机器人抓取检测方法的基础上以智能协作式机器人Baxter作为操作对象,融合机器视觉技术提出了一种基于改进的Canny边缘检测和Hough变换的机器人抓取检测分类算法,并最终实现了机器人的目标抓取。通过实验证明,该算法能够有效提升Baxter机器人在完成抓取任务过程中的精准性和鲁棒性,该研究对智能制造环境下的机器人灵活抓取任务实现有着重要的案例参考意义。  相似文献   

20.
基于雅可比的实时目标跟踪系统研究   总被引:1,自引:0,他引:1  
以四自由度机器人为对象,研究并开发了基于雅可比逆阵的静态目标抓取和动态目标跟踪的控制系统。在系统中通过引入动态增量分割方法在线规划轨迹,使抓取静态目标的跟踪轨迹平直;引入比例积分控制策略实现了比较精确的运动目标的实时跟踪。系统使用时只需将传感器获得的目标位姿信息实时输入系统,无须运动学反解和运动规划,即可实时控制机器人的位置和姿态。该系统结构简单,实时性强,化姿控制精度较离。仿真实验表明了该系统的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号