首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 312 毫秒
1.
利用计算机视觉技术实现游戏人机交互来提高游戏的娱乐性,是当前国内外应用研究的热点。文中提出了采用肤色检测技术应用于游戏交互的方法。通过摄像头对肤色进行采样,再利用统计方法对皮肤颜色进行分析建立肤色模型;采用背景差分阈值分割法和Camshift算法进行手势跟踪监测,获取手的位置;将手的位置作为信号传递给游戏角色,从而控制游戏。在VC++6.0下,使用OpenCV和OpenGL开源库,构建了普通摄像头视觉游戏实验平台,通过手势的运动轨迹控制粒子系统喷射方向。实验结果表明,通过肤色进行手势跟踪监测,进而控制游戏角色运动,具有很好的实时性和交互性。  相似文献   

2.
设计实现了一个基于双目视觉的无人机定位与控制系统.系统由四旋翼飞行器、两个Wii Remote传感器、Kinect传感器、凌动处理器等构成.飞行器采用STM32F401为主控,辅以六轴速度和加速度传感器以及超声波传感器实现姿态和高度控制.利用两个Wii Remote传感器以双目视觉的原理即可实现飞行器的三维定位与追踪.Kinect传感器实现对手势姿态的识别.在Intel凌动处理器平台上利用2.4G无线数传与飞行器通信,并利用PID控制器以增强飞行器的鲁棒性.该系统实现了在室内没有GPS信号的情况下对飞行器的精确定位,以及基于手势姿态识别的对四旋翼的智能控制.  相似文献   

3.
从立体视觉中提取位置信息是计算机视觉的热点问题.在建立双目视觉模型的基础上提出了一种新的基于YUV彩色模型的实现足球立体视觉匹配的检测方法.该方法将匹配问题映射为具有某种颜色的目标特征区域的中心,把其中心作为匹配点,通过目标的分割获得匹配点后根据双目视觉定位数学模型恢复图像位置信息,完成对目标的实时检测和定位,满足机器比赛中对足球实时检测和定位的需要.  相似文献   

4.
针对目前输电线路运维作业技能仿真培训存在交互体验不足的问题,提出一种采用手势交互方式开展技能模拟训练的方法。通过Leap Motion手势采集设备和手势交互识别技术,建立适用于线路运维操作模拟的虚拟手模型和手势库,借助Unity3D、VC++、3Dmax等开发工具实现输电线路运维三维场景的配置和基于手势交互的训练任务驱动。结合Oculus Rift立体成像系统,采用立体渲染技术实现作业场景的立体显示和视觉跟踪,最后,构建了基于手势交互的输电线路运维技能沉浸式操作训练平台。测试结果表明:采用Leap Motion手势识别技术可以实现手部运动对模拟操作过程的有效控制,能够满足输电线路运维技能操作训练的自然交互体验需求,同时,结合Oculus Rift的立体成像进一步增强了训练过程的沉浸式体验效果。该文的研究成果为输电线路运维技能训练提供了一种新型有效的培训手段。  相似文献   

5.
一种双目主动视觉监测平台建立以增加并联机器人对工作空间的监测,以提高并联机器人运动精度问题和解决并联机器人"盲"工作状态.针对这种视觉监测平台基于一个圆形轨道的这一特殊构造,运用立体视觉思想和摄像机小孔成像原理,实现了该双目主动视觉测平台的视觉空间目标定位方法.为并联机器人精加工奠定了基础工作.  相似文献   

6.
利用Intelnet跨平台计算机视觉库OpenCV和微软VisualStudio 2010构建体感遥控器的软件开发平台。以OpenCV为基础,结合自定义算法和函数,开发利用人体手势识别来控制不同设备的体感遥控器。该设计采用基于codebook背景模型的运动检测方法对手势定位,以改进的CamShift算法和Kalman滤波器进行手势跟踪,进而对手势分割和识别。研究利用单目摄像头下对单手手势识别,以红外线和无线通信方式对目标区域和设备进行非接触控制。给出软件设计的基本思想,用OpenCV实现算法的具体过程和关键代码。该方案目标跟踪快、检测效率高、实时性好,为下一步在嵌入式系统中实施此方案打下一定基础。  相似文献   

7.
设计了基于双目视觉的船舶跟踪与定位系统,并且完成对应算法设计.算法分为摄像机标定、目标跟踪、立体匹配、视差定位4个模块,其中,跟踪模块以目标窗口的形式给出跟踪结果,匹配模块在跟踪结果中进行左右目立体匹配,定位模块根据左右目匹配点对的像素位置计算其在物理空间的坐标,减少了匹配时间.实验结果表明,该方式可实现实时跟踪目标并给出目标的准确位置,满足应用要求.该定位系统可同时完成动态目标跟踪和定位,提供三维图像的丰富信息,具有很强的推广应用价值.  相似文献   

8.
基于非接触式眼压计对人眼定位系统进行研究,采用汇聚式双目视觉模型对人眼进行定位。阐释了双目视觉原理和相机标定原理与流程,通过标定评价方法对标定结果进行评价,同时搭建双目视觉系统实验平台,对真实人眼进行试验。对眼图处理过程进行了分析,采用HOUGH圆检测与SURF-RANSAC算法进行特征点匹配,最后得到空间点与三维定位点坐标间误差,实验结果验证了方案可行性。  相似文献   

9.
提出了一种基于PPT(precision position tracker)跟踪器和Cyber手套的虚拟手交互方法,该方法先是通过PPT跟踪器获取人手的空间方位和移动数据以及通过Cyber手套获取手指各关节的运动数据;接着构建相应的数据结构,关联数据手套、位置跟踪器和虚拟手,驱动虚拟手操作,实现虚拟手在3D虚拟环境中的自然交互.实验结果表明此方法可以实时地获取数据手套运动数据并控制虚拟手操作,视觉效果良好,交互行为直观.  相似文献   

10.
基于卡尔曼滤波的摄像头目标跟踪   总被引:5,自引:0,他引:5  
在应用摄像头进行目标跟踪的过程中,由于图像信号的采集、传输和处理时延的影响,使得目标不能处在摄像头的最佳观测位置,从而产生数据缺失,造成分析结果滞后,由此可能导致摄像头运动控制误差较大.本文提出基于卡尔曼滤波的摄像头预测跟踪模型,充分利用Kalman滤波方程递推预估计能力对运动目标位置进行跟踪,及时调整摄像头偏转角度,使得摄像头始终超前运动目标,解决了由于摄像头运动惯性产生的数据缺失现象,对后续的图像分析与识别提供了保证,最后仿真结果显示了该模型的正确性.  相似文献   

11.
为解决无人机(Unmanned Aerial Vehicle, UAV)在进行地面目标跟踪实验时,存在验证难度大,成本高等问题,设计和实现了基于视景仿真软件和MATLAB/Simulink的仿真平台.首先,选择汽车作为地面目标,在视景仿真软件中导入UAV和汽车的三维模型,并设置虚拟云台和摄像机.其次,利用UAV、汽车与云台之间的相对运动模拟UAV跟踪过程中场景的变化,基于运动补偿的云台控制算法保证了虚拟摄像机始终指向目标.然后,虚拟摄像机采集目标所在区域的图片,图像跟踪算法跟踪图片中的目标,并利用目标图像模型解算目标在世界坐标系下的位置.最后,根据目标位置,使用参考点制导法生成期望的滚转角指令,引导UAV围绕目标盘旋飞行.视景仿真软件、图像跟踪算法和MATLAB/Simulink之间通过共享内存与UDP进行闭环通信.此外,提出一种实用可靠的标定方法,完成了视景仿真软件中虚拟摄像机内参矩阵的标定.仿真结果表明:该仿真平台能较好地模拟UAV对不同运动状态汽车的跟踪,得到的仿真结果具有较高的工程参考价值.本文的研究成果为目标跟踪实验提供了良好的仿真环境,有效减少实验成本.  相似文献   

12.
在对运动物体的实际追踪过程中,由于目标运动方向不确定、背景环境复杂多变等因素,增加了动态目标跟踪的难度,所以用普通识别方法较难提取出目标特征,从而无法准确跟踪动态目标。提出了基于模板匹配的人脸识别算法,分析了基于方向梯度直方图(HOG)的人脸特征提取算法和基于欧氏距离的人脸识别算法,设计出了人脸识别跟踪系统。实验结果表明通过动态目标视觉检测以及PID控制的角度输出,该系统实现了对特定目标的人脸识别和跟踪。  相似文献   

13.
提出了一种基于矩特征预测的B样条主动轮廓跟踪算法。在算法的预测阶段,采用卡尔曼滤波器预测图像中运动目标的质心位置及主轴旋转角度,采用这2种矩特征统计量初步确定主动轮廓在当前帧中的位置及姿态。在算法的搜索阶段,采用动态规划方法驱动B样条主动轮廓精确定位目标的边缘。实验表明,这种跟踪算法在数十帧的头部序列图像中能较好地分割及跟踪目标。  相似文献   

14.
CamShift是利用目标颜色信息对目标跟踪的算法,当目标运动过快时,由于运动方向的不确定性,Cam—Shift不能准确跟踪目标,导致跟踪丢失.针对存在的问题,文章在Camshift算法中引入目标运动轨迹预测思想,提出了一种能有效跟踪运动目标的新方法.该方法能准确预测运动目标的位置,减少在算法中搜索目标的次数,进而提高目标跟踪的准确性和速度.实验结果表明,该方法对运动目标能够快速、有效地进行跟踪.  相似文献   

15.
双目立体视觉的无人机位姿估计算法及验证   总被引:4,自引:1,他引:3  
针对无人飞行器在未知复杂环境下的导航问题,提出了一种基于双目立体视觉的无人飞行器位置和姿态估计算法。用双目摄像机采集立体图像序列,对图像进行立体校正后使用Harris算法提取特征角点,用NCC算法获取匹配特征点,导出摄像机坐标系下的特征点坐标,得到三维立体特征信息,使用RANSAC算法与L-M迭代算法得到无人飞行器姿态和位置估计值。实验结果表明,基于双目立体视觉的位姿估计算法能适应未知环境变化,计算结果与实际位姿量相比误差小,能满足无人飞行器导航要求,可为无人飞行器的导航实现提供一套新途径。  相似文献   

16.
针对平面视频监控无法感知运动物体深度的缺点,提出了基于立体视觉进行三维空间入侵检测的理论和方法。采用双目平行摄像系统,基于立体校正后的左右图像进行视差计算,并在视差图的基础上直接对运动物体做入侵判别;同时,设计了三维敏感区域的设置和报警策略。为了加快计算速度,采用一种基于下采样块匹配的方法来计算代价空间,最后用快速的局部动态规划输出视差图。在计算某目标的实际视差时,与目标的运动区域检测相结合,以减小计算误差。实际测试结果表明,该方法可以有效地探测到三维空间的运动目标入侵。  相似文献   

17.
提出一种基于HSV颜色空间的单目视觉跟踪算法。该方法利用目标在HSV空间的颜色信息提取出场景中的运动目标,在此基础上,对目标进行滤波和形态学处理,从而实现了目标的检测与定位。最后,利用单目视觉跟踪算法有效地实现了运动目标跟踪。实验结果表明,该算法有效地实现了目标定位与跟踪,并具有一定的实时性和抗干扰性。  相似文献   

18.
经典的Mean-Shift算法以颜色直方图为特征进行跟踪,但在视频目标跟踪中没有有效地利用跟踪目标的空间信息,因而当目标快速移动时,目标极易丢失。针对这一问题,提出了一种基于距离目标形心加权直方图的Mean-Shift跟踪算法。距离目标形心加权直方图可有效利用目标在图像中的位置信息,从而能实现复杂背景下的目标跟踪。并分别用改进的基于距离目标形心加权直方图的Mean-Shift跟踪算法和经典的Mean-Shift跟踪算法,对快速运动的目标进行跟踪实验。结果表明,改进的基于距离目标形心加权直方图的Mean-Shift跟踪算法,具有较强的鲁棒性和实时性,能有效实现复杂场景下的目标实时跟踪。  相似文献   

19.
目标定位是仿人机器人实现抓取操作的前提。针对机器人单目视觉容易丢失深度信息,双目视觉难以对缺乏纹理特征的物体获得有效深度信息的问题,提供一种基于Kinect的仿人机器人抓取目标定位系统。首先建立Kinect和机器人坐标系,构建布尔沙坐标转换模型;然后利用线性总体最小二乘(LTLS)算法求解该模型;最后依据Kinect获取的抓取点坐标信息,通过坐标转换将其转换到机器人坐标系:从而实现机器人对目标物体的定位。在仿人机器人NAO平台上对该系统进行实验验证,其结果表明:利用该方法,机器人在一定空间范围内能够可靠的定位目标物体,并且较其单目视觉定位更准确;根据所提供的目标定位系统,NAO机器人实现了对不同物体的抓取操作。  相似文献   

20.
针对空中运动目标的识别和跟踪,提出图像匹配算法和连通域算法相结合的方法。该方法主要用图像匹配算法获得目标的位置信息,当图像匹配算法失效时,则采用连通域算法重新捕获目标、获得图像模板。同时,为提高跟踪的实时性,采用最小二乘线性预测法来预测目标的运动轨迹。在实验室的目标跟踪系统平台上,该方法能够对运动目标进行稳定的识别和跟踪。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号