首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 93 毫秒
1.
随着虚拟现实技术的飞速发展, Leap Motion等体感传感器出现并被广泛地应用在人机交互中.针对Leap Motion体感控制器在识别范围边缘识别率低且识别速度慢的问题提出了一种基于深度神经网络的Leap Motion手势交互方法.该方法在定义的交互手势基础上,设计了三维交互系统并应用到虚拟场景中.系统首先通过Leap Motion进行数据捕捉,对获取到的红外图像采用深度神经网络进行特征提取并实现对手势的分类识别,然后结合Leap Motion获取的手部坐标前后帧的变化来判断动态手势,最终结合动态手势完成虚拟场景中的交互功能.经过实验验证,本文手势识别方法无论是在识别速度还是识别精度上都优于Leap Motion自带的手势识别方法,同时在Leap Motion识别范围边界处仍能保持较高的识别率.  相似文献   

2.
手势识别的快速发展及体感设备的不断更新为三维手势交互提供了灵感,基于Leap Motion 手势识别和最邻近算法,建立了一种三维手势交互系统。首先对手势设计理论和交互手 势设计原则进行研究,基于此设计手势功能和建立手势库,并将手势库分为 8 种手势;其次进 行手势特征提取,建立手指关键点模型,获取手势特征的角度特征;然后计算 KNN 算法和 SVM 算法的手势识别效率,KNN 改进算法取得较好的识别效率;最后,设计三维交互系统,手势分 类为 4 个模块,每个模块有 2 个手势任务;20 名测试者中提取 1 600 组手势数据,并进行总采 集样本关节点均值的数据分析;设计三维交互系统模块,在 Unity3D 中创建的三维交互系统中 导入 1 600 组手势数据,根据自定义的 8 种手势驱动虚拟手完成交互设计过程,完成用户体验 分析和手势识别效率统计。通过研究发现,基于 Leap Motion 手势识别具有较高的识别效率, 三维手势交互系统富有创新性。  相似文献   

3.
《微型机与应用》2017,(2):48-51
Leap Motion是最近推出的一款比较新颖的手部信息采集设备,它能够高精度、高帧率地跟踪捕获手部信息,基于此特性,本文阐述了一种基于指尖位置和方向信息进行手势提取和识别的研究方案。采用Leap Motion传感器进行手势的三维空间坐标信息采集,从中提取指尖坐标及方向向量信息,建立手势识别模型,构建手势特征数据。对特征数据进行归一化处理后输入到支持向量机进行训练,实现对特定手势的识别。实验结果表明,提出的手势识别方案平均识别精度达到97.33%,具有较高的准确性和鲁棒性。  相似文献   

4.
动态手势识别作为人机交互的一个重要方向,在各个领域具有广泛的需求。相较于静态手势,动态手势的变化更为复杂,对其特征的充分提取与描述是准确识别动态手势的关键。为了解决对动态手势特征描述不充分的问题,利用高精度的Leap Motion传感器对手部三维坐标信息进行采集,提出了一种包含手指姿势和手掌位移的特征在内的、能够充分描述复杂动态手势的特征序列,并结合长短期记忆网络模型进行动态手势识别。实验结果表明,提出的方法在包含16种动态手势的数据集上的识别准确率为98.50%;与其他特征序列的对比实验表明,提出的特征序列,能更充分准确地描述动态手势特征。  相似文献   

5.
基于视觉的手势识别是实现新型人机交互的一项关键技术,针对手势普适性与识别率问题,在改进隐马尔可夫模型学习机制的基础上提出一种新的基于Leap Motion传感器的自适应动态手势识别方法。该方法首先采用几何特征法识别静态手姿以确定动态手势起始点与结束点,然后基于角度对动态手势轨迹进行特征提取与分类,并引入修正的重估方法计算隐马尔可夫模型参数,最后在对非定义手势识别的基础上自动学习更新隐马尔可夫模型,以提高动态手势识别率,并最终实现对26个小写字母的动态手势识别。实验结果表明,所提出的动态手势识别方法具有良好的自适应性与精确性。  相似文献   

6.
7.
黄俊  景红 《计算机系统应用》2015,24(10):259-263
最新体感设备Leap Motion的面世提供给用户一种全新的体验, 即通过跟踪探测动态手势可以进行体感游戏、虚拟演奏、凌空绘画等的非接触式人机交互. 文章首先对Leap Motion的技术特点进行介绍, 并对同类型设备进行对比总结, 介绍了Leap Motion的相关应用和发展前景. 文章分析了Leap Motion的原理和技术基础, 然后提出基于Leap Motion的手势控制技术, 最后以一个基于Unity 3D的手势控制虚拟场景中的物品运动的具体实例, 对Leap Motion手势控制技术的实现进行了细节介绍.  相似文献   

8.
伴随虚拟现实(Virtual Reality,VR)技术的发展,以及人们对人机交互性能和体验感的要求提高,手势识别作为影响虚拟现实中交互操作的重要技术之一,其精确度急需提升[1].针对当前手势识别方法在一些动作类似的手势识别中表现欠佳的问题,提出了一种多特征动态手势识别方法.该方法首先使用体感控制器Leap Motion追踪动态手势获取数据,然后在特征提取过程中增加对位移向量角度和拐点判定计数的提取,接着进行动态手势隐马尔科夫模型(Hidden Markov Model,HMM)的训练,最后根据待测手势与模型的匹配率进行识别.从实验结果中得出,该多特征识别方法能够提升相似手势的识别率.  相似文献   

9.
杜淑颖  何望 《软件》2023,(8):9-14
Leap Motion设备产生的数据在虚拟环境中可以进行手势识别。通过识别和跟踪用户的手来生成虚拟3D手部模型,从而获取手势信息。本文设计了一种基于隐马尔可夫模型(Hidden Markov Model, HMM)分类算法来学习从Leap Motion中所获取的手势信息的系统,根据手势特征的重要性赋予不同权值,可进一步提高分类准确率,实现手语信息的识别输入。测试结果表明,识别准确率为86.1%,手语打字输入识别速度为每分钟13.09个字符,可显著提高聋哑人与正常人之间沟通的便捷性。  相似文献   

10.
Leap Motion是采用双目视觉原理来对手部进行距离的精准测量的体感交互设备,因此常被用作交互式沉浸系统的开发.以Leap Motion传感器为手势识别设备,采用TBD(Track-Before-Detect检测前跟踪)技术对手部进行追踪,根据两个摄像机进行深度成像,从而提取人体手部各关节点的深度信息并建立手部立体...  相似文献   

11.
王雷  王力 《计算机工程与应用》2002,38(22):88-89,111
交互式虚拟现实系统能够为用户提供直观自然的用户接口。使用手势,用户可以更加高效地与虚拟环境进行交互。但随着系统中识别手势的增多,正确手势的识别率和系统的性能会跟着下降。文章提出用交互状态解决手势识别率和系统性能下降问题,并给出了实现方案。  相似文献   

12.
基于视线跟踪和手势识别的人机交互   总被引:9,自引:5,他引:4       下载免费PDF全文
肖志勇  秦华标 《计算机工程》2009,35(15):198-200
提出一种新的基于视线跟踪和手势识别的交互方式用于远距离操作计算机。系统通过摄像头采集用户的图像,利用图像识别算法检测人眼和手指的位置,由人眼和指尖的连线确定用户指向屏幕的位置,通过判别用户手势的变化实现各种操作,达到人机交互的目的。实验结果表明,该交互方式可以较好地定位屏幕和判断用户的操作,实现自然、友好的远距离人机交互。  相似文献   

13.
Leap Motion手势识别在识别区域边缘和手指遮挡部位存在识别不稳定的现象。提出了一种Leap Motion手势交互层次校正方法。该方法通过实时对比阈值方式分析Leap Motion的识别错误,并采用层次化的校正算法校正人手位置,解决人手交互过程中的识别不稳定现象。通过对实验进行分析,75%参与者对实验交互方式满意,80%参与者认为该方法更精确,且交互内容识别精度超过89%,充分证明了该方法能够提高Leap Motion的识别准确率,提升用户体验。  相似文献   

14.
在手术室中,传统人机交互技术很大程度上依赖于鼠标、键盘、触摸屏等输入设备,但这种接触式交互有导致患者感染的风险.而虚拟操作人机交互过程采用计算机视觉来获取手势信息,在交互的自然性与成本上有很大的优势,是现如今人机交互领域发展的主要趋势.本文介绍了一种基于Leap Motion的手势控制技术,利用AR技术和Leap Motion设备,使得手术过程中医生无需接触手术设备,在非接触式设备的帮助下使医生能彻底远离因接触设备给手术带来的干扰和手术风险.实验表明,相比于传统的接触式交互技术,基于Leap Motion的手术室无干扰交互技术在一定程度上减少了接触式交互所带来的手术感染风险并增加了医生操作的易用性.  相似文献   

15.
A hand gesture recognition method is presented for human-computer interaction,which is based on fingertip localization. First,hand gesture is segmented from the background based on skin color characteristics. Second,feature vectors are selected with equal intervals on the boundary of the gesture,and then gestures' length normalization is accomplished. Third,the fingertip positions are determined by the feature vectors' parameters,and angles of feature vectors are normalized. Finally the gestures are classif...  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号