共查询到17条相似文献,搜索用时 62 毫秒
1.
2.
3.
4.
群组行为识别是对个体的共同行为进行识别。群组行为与群组状态密不可分,也与群组内个体时空特征息息相关,时空信息既能描述空间语义信息,更能反映行为的动态变化情况。针对有效精细的时空特征提取问题,本文提出了一种基于注意力机制和深度时空信息的群组行为识别方法。首先将ShuffleAttention引入双流特征提取网络中,有效提取个体外观和运动信息。其次使用改进Non-Local网络提取深度时序信息。最后将个体特征送到图卷积网络中进行空间交互信息建模,得到群组行为识别结果。在CAD和CAED数据集上的准确率达到了93.6%和97.8%,在CAD数据集上与凝聚群组搜索算法(CCS)和成员关系图(ARG)方法相比,准确率提高了1.2%和2.6%,这表明本文方法能有效提取深度时空特征,提升群组行为识别准确率。 相似文献
5.
6.
7.
8.
行为识别是计算机视觉研究一大热点,为了改善其计算量大、识别率低的问题,提出了一种基于三维卷积神经网络(3Dimension Convolutionnal Neural Network,3D-CNN)与门控循环单元网络(Gated Recurrent Unit,GRU)相融合的行为识别算法。该算法采用keras框架,首先对3D-CNN结构进行优化,采用把大的卷积核用若干个小的串联起来的Block结构;然后在每层卷积层后采用批量归一化处理,并添加Dropout层以提高网络泛化能力;最后与GRU网络融合,使用Softmax进行分类得出结果。实验结果表明,所设计的融合网络有较高的识别率,达到94.5%。 相似文献
9.
10.
《现代电子技术》2019,(14):78-82
准确识别视频中的内容是未来互联网应用发展的方向,视频中的行为识别是计算机视觉领域的研究重点。为充分利用视频中的信息,提高行为识别的准确程度,文中提出一种基于三维卷积与双向LSTM的行为识别算法。设计一种基于三维卷积的空间注意模块,可以关注空间区域的显著特征。为了更好地处理长时间视频,引入一种新的基于双向LSTM(长短时记忆网络)的时间注意模块,其目的在于关注关键视频而不是给定视频的关键视频帧,然后采用双中心loss(计算损失函数)优化网络对两阶段策略联合训练,使其能够同时探索空间和时间域的相关性。在HMDB-51和UCF-101数据集上测试证明,所提算法能够准确识别视频中的相似动作,行为识别的准确率得到提高,识别效果显著。 相似文献
11.
火灾发生时,其火焰和烟雾具有特有的静态和动态特征,在分析总结火灾图像特征的基础上,以火焰和烟雾特征为线索,介绍了火灾提取和识别的典型方法,侧重于分析各种特征在火灾识别中的应用及所采用的算法,最后对未来视频火灾识别方法的发展方向作了展望。 相似文献
12.
13.
卷积神经网络在人脸识别研究上有较好的效果,但是其提取的人脸特征忽略了人脸的局部结构特征。针对此问题,文中提出一种基于深度学习与特征融合的人脸识别方法。该算法将局部二值模式信息与原图信息相结合作为SDFVGG网络的输入,使得提取的人脸特征更加丰富且更具表征能力。其中,SDFVGG网络是将VGG网络进行深浅特征相融合后的网络。在CAS-PEAL-R1人脸数据库上的实验表明,将网络深浅特征相融合与在卷积神经网络中加入LBP图像信息与原图信息相融合的特征信息对于提高人脸识别准确率非常有效,可得到优于传统算法和一般卷积神经网络的最高98.58%人脸识别率。 相似文献
14.
为了提高传感器目标识别性能和近距空中目标识别准确性,结合雷达和红外传感器提出了一种目标融合识别模型:对于雷达传感器,提出基于参数学习贝叶斯网络的目标识别方法,首先采用EM算法对贝叶斯网络进行参数优化,然后根据获取的目标属性信息进行目标分类;对于红外成像传感器,采用基于小波矩特征的目标识别方法,首先对目标图像进行小波矩特征提取和选择,然后通过建立的BP神经网络分类器进行目标分类;最后通过D S证据组合法则对两部分识别结果进行融合处理,实现了基于雷达和红外数据融合的近距目标识别。仿真结果表明:和单传感器相比,所提出的模型可以更加精确地进行目标识别。 相似文献
15.
16.
本文针对老年人日常活动类型及特点提出了一种基于三轴加速度传感器和HMM(Hidden Markov Model)的活动识别方法.本文首先提取了针对老年人相异、相似活动的标准差、能量、相关系数、RAF(RAtio Forward)、RVF(Ratio Vertical Forward)等特征值.然后定义老年人的HMM活动识别模型.最后在经过Baum-Welch算法对HMM进行参数训练后使用Viterbi算法来进行老年人活动识别.实验结果表明,本文方法适用于老年人的日常活动的识别,平均识别精度达到了93.3%,尤其是对于相似步态活动的识别准确率达到了93.7%. 相似文献
17.
相较于图像分析,如何分析时序信息是动作识别中的一个主要问题.大多数先前的方法,如3D卷积网络、双流卷积网络,仅使用包含全局时域信息的特征作为视频的表征,忽略了局部时序特征的重要性.考虑到这样的问题,本文提出一种基于时序交互感知模块的长短时序关注网络——Long and Short Sequence Concerned Networks(LSCN),融合不同的时序信息,利用不同卷积层时序特征的交互加强对不同时序长度的动作实例的表示,兼顾长短动作实例对时序信息的需求.实验结果表明,基于3D ResNext101的LSCN在两个公共数据集(UCF101和HMDB51)上,相较于基础的网络分别有0.4%和2.9%的准确率提升. 相似文献