首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 125 毫秒
1.
随着虚拟环境的发展,人机交互中键盘远远不能满足人们的要求,本文提出了一种基于手势识别方法的智能输入算法.该算法采用肤色分割提取出手部区域,检测大拇指和伸出的手指数目识别出手势的含义,把各种手势组合起来实现智能输入.该算法能够使用户根据自己的习惯来定义手势,更好的实现人机交互.实验结果表明该算法对获取手势图片时的外界干扰具有一定的鲁棒性,并能达到较高的成功率.  相似文献   

2.
本文提出了一种基于深度学习的应急手势识别算法.首先采用深度图像传感器做手势分割获取应急手势数据集,其次采用肤色分割算法和本文提出的应急手势识别算法做实时性测试.与常规算法不同的是,本文构建了一个应急手势数据库,并建立了深度卷积神经网络模型,提出了7种应用于多种场景的应急手势识别算法.实验结果表明,本文应急手势识别算法优于现有的机器学习算法,识别率达99.95%,可广泛应用于人机交互场景.  相似文献   

3.
结合体感交互与虚拟环境技术,提出了一种基于手势识别的虚拟环境体感交互方法,采用Kinect体感设备,实时获取用户的手势数据,通过改进的动态时间规整算法,对所定义的手势语义进行识别,并根据识别结果,发出实时控制指令,实现与虚拟环境的自然交互.在此基础上,实现了基于Kinect手势识别的虚拟矿井交互系统,对交互方法进行测试.实验测试结果表明,手势识别正确率平均高达95.1%,实时性较好,所定义的虚拟矿井手势语义符合人们正常操作习惯,能实现与虚拟环境更加自然的人机交互,可以实现与虚拟矿井自然交互控制.  相似文献   

4.
利用可穿戴式加速度传感器采集手势动作信息,研究了基于隐马尔可夫模型的手势识别技术.首先采集手势加速度数据,采用改进的SWAB算法进行自动端点检测,通过提取相应的手势特征,利用HMM对手势指令建模,并采用K-means算法矢量量化手势特征序列,以提高手势识别性能.实验表明,本文采用的方法能够有效识别手势动作.  相似文献   

5.
针对手势识别研究中普遍要求用户以严格固定方式握持数据采集设备,致使用户体验差的问题,使用混合高斯模型(Gaussian mixture model,GMM)对非固定握持姿势的手势识别算法进行改进,以提高手势人机交互时的舒适性.首先通过GMM从加速度传感器数据中提取用户握持姿势数据,然后借助握持信号实现手势命令数据提取与坐标转换,使识别系统能够自适应不同的握持姿势.为使GMM可以同时满足手势识别应用中对稳定性和适应速度的要求,优化了GMM的学习机制,包括增加备则模态和改善优先级计算.实验结果表明,所述系统在滚转角和俯仰角+60°~-60°、偏摆角+20°~-20°范围内,握持姿势对手势识别正确率没有明显影响,实现了非固定握持姿势的手势识别,起到了提高用户体验的作用.  相似文献   

6.
提出基于深度信息与深度置信网络(DBN)的手势检测与识别算法.首先通过Kinect提供的深度信息定位手势区域,并找出手势区域的方向线,根据方向线的角度把手势旋转成垂直向上.结合手掌形状特征实现手势分割得到二值化的手势图像.在此基础上,利用深度置信网络进行识别.通过深度信息,去除了复杂背景的干扰.利用方向线使得手势具有抗旋转性.利用深度置信网络无需其他特征提取.实验结果表明,本文检测手势区域准确,计算量较小,能够快速地实现手势识别,并能够获取较高的识别率.  相似文献   

7.
基于Leap Motion设备,提出了用自由手势控制三维模型变换的新方法,并设计了三维操作的手势库。通过低成本的Leap Motion实时获取手部运动的帧数据,用基于规则的分类和基于监督式学习的分类相结合的方式,实现了单手和双手操作三维模型的平移、旋转和缩放。为了提高手势识别的准确率和连贯性,在动态识别过程中,引入了预处理和后置处理模块,识别准确率达到95.59%。用户测试的结果表明,用户对新的交互方式接受度较高,操作结果符合用户的预期,在可用性和满意度方面表现良好。  相似文献   

8.
针对复杂环境中存在的手势识别问题,提出一种利用Kinect传感器获取深度信息并进行动态手势识别的方法。该方法通过对Kinect传感器获取的深度信息进行分析,获取人体主要骨骼点的3D坐标,从中选取六个点作为手部运动的特征参照;为提高手势识别系统的识别速度,提出了一种基于查表的DTW算法对得到的特征数据进行模板训练并实现动态手势识别。实验结果表明:该方法具有较高的识别速度和识别率,对复杂背景及光照强度变化具有较强的鲁棒性。  相似文献   

9.
提出一种动态手势识别算法,将动态手势识别问题转换为轨迹识别间题.首先以SOM算法作为分类器提取手势特征,将多维手势信息投影到二维平面中,根据每帧的顺序产生一平面轨迹,将产生的平面轨迹输人到改进的ART网络进行识别.实验结果表明,该算法用于动态手势识别是可行的且性能稳定.  相似文献   

10.
所控制的翻书机器人是一种辅助特殊人群阅读的服务机器人,对其提出一种基于表观特征的手势控制指令识别算法.从Kinect(体感外设)获取的手部深度图像中利用最小深度点分割手势区域,用轨迹圆提取指尖个数及夹角等表观特征并通过决策树分类,同时利用手和肩膀的骨骼数据及其运动轨迹判定翻页方向.经过多次试验,手势控制指令识别率达到98.4%,该算法无需训练样本也能在复杂环境下快速准确地识别手势控制指令,完全可以应用于辅助特殊人群阅读时的翻书控制.  相似文献   

11.
传统的手势指令识别在缩放、旋转、平移等转换过程中,一直存在手势图片出现形变使识别不准确。提出一种新的移动终端交互设计中手势指令识别改进方法。将质心距离函数看作全局特征对二维空间下的手势运动轨迹特征提取,对其进行改进,获取三维空间下手势轨迹特征,増加移动终端交互设计中第三维的手势轨迹信息,得到手势轨迹特征向量。将手势轨迹特征向量作为输入,通过随机森林方法对手势指令识别分类器进行训练,利用训练完成的分类器实现移动终端交互设计中手势指令的识别。实验结果表明,所提方法不仅能够保证移动终端交互设计中手势指令识别的实时性,而且识别精度高,认证效果好。  相似文献   

12.
 普适计算技术和可穿戴设备的快速发展对自然的手势识别技术提出了新的挑战:应使用户尽可能摆脱对环境和输入设备的束缚,与环境进行自然而有效的手势交互。凌空手势(mid-air gestures)识别是应对新挑战的一类有效的手势识别技术。本文首先对凌空手势的定义进行描述,然后分析和总结现有的基于计算机视觉、超声波和电磁信号的三大类凌空手势识别技术,并指出凌空手势识别技术的应用领域、开放性问题及未来发展方向。  相似文献   

13.
多模态人机交互中基于笔输入的手势识别   总被引:1,自引:0,他引:1  
为研究多模态人机交互系统的理论及构造方法 ,提出了一种快速的、单笔划手势识别方法 .该方法通过提取手势轨迹的关键点及各关键点的运移方向 ,形成特征码 ,然后与标准手势符号的各种可能的特征码进行匹配 .其中方向特征用于预分类 ,而关键点位置信息用于细分类 .实验结果表明该方法速度快、识别率高 .  相似文献   

14.
视觉是人类从外界获取信息的主要途径,人们希望计算机视觉在人机交互技术中发挥重要的作用。介绍一个基于视觉的动作实时识别系统,该系统用于在门桥模拟训练中对旗语动作进行识别。与以往工作不同的是,该系统仅用一个摄像机来实现多个动作的识别与跟踪,避免了多目视觉的特征匹配问题,进而提高了系统的稳定性和识别速度。  相似文献   

15.
基于大多数的手势识别算法,需要提取高维度的特征,限制了手势识别在实时系统中的应用。文中针对这种问题,提出一种快速的手势识别算法。首先,在原始图像上提取轮廓块边缘对目标区域进行分割。其次,提取目标区域的形状特征。然后,在数据库中,对每种手势只记录一幅标准的参考图像。最后,通过比较参考图像与待检测图像中的手势特征,来匹配和标记手势的含义。实验结果表明,文中提出的快速算法能够准确地识别手势。  相似文献   

16.
结合飞行员操作过程中手部的运动特点,针对核相关滤波器跟踪算法在目标尺度变化和快速移动时存在的问题,提出了一种结合了手势检测与核相关滤波跟踪算法的飞行员手势跟踪方法。首先,将肤色分割与背景减除进行有效的融合,对静态手势进行快速检测。然后,使用KCF算法对定位的手势区域进行跟踪以获取手势实时位置和轨迹。跟踪过程中比较手势检测与手势识别所得到的手部信息,当出现偏差时对搜索框进行更新。从而实现有效的手势检测与跟踪。实验结果表明,该方法可以实现对飞行员变形手势快速、准确的实时跟踪,对部分遮挡和尺度变化有很好的适应性,能够满足后期飞行员手部行为分析的要求。  相似文献   

17.
针对手势识别中人手是复杂变形体,手部特征描述容易受到环境因素影响的特点,提出了一种基于傅立叶描述子-BP神经网络的手势识别方法.首先根据YCbCr和Nrg肤色模型的互补性以及背景模型有效去除复杂背景中的类肤色的特点,利用多特征相融合的手势分割方法提取手势区域;然后结合傅立叶描述子具有较好的轮廓描述能力和BP神经网络较强的自学习能力,利用傅立叶描述子-BP神经网络方法对手势进行识别.实验结果表明此方法具有较好的鲁棒性和较高的识别率.  相似文献   

18.
This paper addresses the application of hand gesture recognition in monocular image sequences using Active Appearance Model (AAM), For this work, the proposed algorithm is composed of constricting AAMs and fitting the models to the interest region. In training stage, according to the manual labeled feature points, the relative AAM is constructed and the corresponding average feature is obtained. In recognition stage, the interesting hand gesture region is firstly segmented by skin and movement cues. Secondly, the models are fitted to the image that includes the hand gesture, and the relative features are extracted. Thirdly, the classification is done by comparing the extracted features and average features. 30 different gestures of Chinese sign language are applied for testing the effectiveness of the method. The Experimental results are given indicating good performance of the algorithm.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号