首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 136 毫秒
1.
对闪烁事件进行快速有效识别是GNSS应用的重要需求,为此利用不同时期、不同区域、不同系统信号测量,比较分析了利用机器学习方法基于不同信号功率谱参数进行闪烁事件识别的性能。分析的不同情形中,闪烁识别模型精度最高可达98.5%,最低为91.3%,其精度均可优于90%,表明利用闪烁信号功率谱特征可建立闪烁事件的有效识别方法。进一步分析指出,降低截止频率有助于提高闪烁识别模型的精度,这表明基于谱特征进行闪烁事件识别的主要依据是Fresnel频率附近一定频谱范围内存在谱强度显著降低这一特征。这个结论也从谱分析角度说明了利用高精度GNSS参考站接收机常规观测(1 Hz)进行闪烁事件识别的可能。对闪烁功率谱进行拟合,并利用拟合的谱特征参数建立识别模型,可进一步提高闪烁事件识别精度,并减少模型所需参数。  相似文献   

2.
微表情是人们处在一些与平时生活环境不同的高强度环境下试图控制和掩饰的情感表现,也是一种不曾意识到的瞬时脸部表情,持续时间短,强度弱。为了提高其准确率,提出了基于Radon变换的微表情识别算法。首先,对数据库中的视频序列进行灰度归一化、尺寸归一化和二维主成分分析法(Two-dimensional Principal Component Analysis,2DPCA)降维预处理,使用光流法对降维后图像提取运动特征;然后使用Radon变换算法对光流图像进行处理,得到对应微表情的特征值和特征图像;最后使用支持向量机进行微表情分类识别。实验结果表明,使用Radon变换后得到的微表情特征图像得到了较好的识别效果,在微表情数据集CASME和CASMEⅡ上识别率分别为81. 48%和82. 17%,通过与选取的其他方法对比说明了该方法具有更好的识别性能。  相似文献   

3.
针对光照变化人脸识别问题,提出了一种基于局部归一化融合熵加权Gabor特征方法。首先,计算类熵加权向量;然后,对图像进行局部归一化,并且计算输入图像的Borda计数,从而消除低值Gabor jet比较矩阵;最后,利用投票得分策略和k近邻分类器完成人脸识别。在扩展YaleB和AR人脸数据库上进行实验评估,在AR上的识别率可接近100%,相比其它几种较新的局部特征方法,本文方法取得了更高的识别精度,并且在一定程度上减少了计算开销。  相似文献   

4.
针对卷积神经网络只能使用相同尺寸图像和卷积核的网络进行特征提取,导致提取的特征不全面,在交通标志识别中因车载摄像头与交通标志的位置不断变化影响交通标志的识别精度等问题,提出了一种基于多尺度特征融合与极限学习机结合的交通标志识别方法。首先,将预训练适应3种不同尺寸图像的网络模型作为实验的初始模型;然后,融合3个网络模型构建多尺度卷积神经网络,将3个预训练网络的参数级联到融合模型的全连接层,对融合模型的全连接层进行训练,采用随机梯度下降算法更新网络参数;最后,将融合后的模型作为特征提取器提取特征,把提取到的多尺度特征送入极限学习机,实现交通标志识别。实验采用德国交通标志数据库(GTSRB)对算法性能进行测试,实验结果显示,多尺度特征融合与极限学习机结合的网络识别精度为99.23%,识别速度为46ms。相对于预训练的网络,网络的分类精度分别提高了2.35%,3.22%,3.74%。多尺度特征融合能够有效提取交通标志图像的特征信息,极限学习机可以提高分类精度和分类时间,该方法能满足交通标志识别的准确性和实时性的要求。  相似文献   

5.
陈汤慧  高美凤 《信号处理》2022,38(5):992-1000
微表情(Micro Expression, ME)存在面部肌肉运动幅度小、数据集样本少的问题,这会导致神经网络在学习过程中难以捕获有效特征和提高识别精度,因此,本文提出了一种基于改进Mini-Xception卷积神经网络的微表情识别方法。首先,在预处理阶段根据余弦相似度计算得到放大倍数,对微表情进行自适应运动放大;接着改进Mini-Xception网络模型,具体操作为在输入层两侧添加投影层以重整输入特征,将通道注意力机制加入由深度可分离卷积层和批归一化层组成的循环模块中,以此来构建ME-Xception网络模型;最后,将ME-Xception网络模型用于微表情识别任务,在CASME Ⅱ、SAMM和SMIC数据集上进行实验,结果表明该方法有效提高了识别精度,与其他主流算法相比可以获得较好的识别性能。   相似文献   

6.
针对几何矩非正交性对目标描述的不足以及连续正交矩在处理数字图像方面存在离散化误差的缺陷,为了提高识别精度,提出了一种利用离散正交的Tchebichef矩结合全局特征和局部特征的飞机型号识别方法。首先,根据几何矩和Tchebichef矩之间的关系,利用归一化几何中心矩、圆谐函数得到径向Tchebichef矩的旋转、尺度和平移(RST)不变量;然后,利用径向Tchebichef矩提取飞机目标的局部和全局特征构成特征向量;最后,利用Matlab构造了四类飞机的样本集,采用支持向量机(SVM)作为分类器识别测试样本飞机型号,分析了几何矩、Zernike矩和本文方法在识别精度上的差异以及训练样本集大小对识别精度的影响。实验结果表明,本文提出的算法提高了识别精度,并且在训练样本集较小时仍能获得90%以上的识别精度。  相似文献   

7.
通过肉眼识别鱼类疫病依赖于诊断人员的经验,疫病数据存在类间差距较小与识别效率低等细粒度问题。由于Transformer缺乏卷积神经网络(CNN)的归纳偏差,需要大量的数据进行训练;CNN对全局特征提取不足,泛化性能较差等问题限制模型的分类精度。基于特征图对所有像素的全局交互建立算法模型,提出一种基于CNN与Vision Transformer相结合的鱼类疫病识别模型(CViT-FDRM)。首先,搭建鱼类疫病的数据库FishData01;其次,利用CNN提取鱼类图像细粒度特征,采用Transformer模型自注意力机制获取图像全局信息进行并行训练;然后,采用组归一化层将样本通道分组求均值与标准差;最后,采用404张鱼类疫病图像进行测试,CViT-FDRM达到97.02%的识别准确率。在细粒度图像开源数据库Oxford Flowers上的实验结果表明,CViT-FDRM的分类精度优于主流的细粒度图像分类算法,可达95.42%,提高4.84个百分点。CViT-FDRM在细粒度图像识别方面可达到较好的效果。  相似文献   

8.
赵师亮  吴晓富  张索非 《信号处理》2020,36(8):1300-1307
为充分挖掘行人重识别特征,最近流行的PCB算法给出了一种特征均匀分块并通过RPP网络对齐特征的方法。PCB算法充分发挥了局部特征的作用,有效提高了行人重识别的准确率。为进一步提高行人重识别的性能,本文基于全局特征与局部特征对网络性能的影响差异提出了一种特征加权的PCB行人重识别算法。在典型的行人识别数据库Market1501、DukeMTMC-Reid上的实验结果表明:所提算法具有更好的首中准确率(Rank1)和平均准确率(mAP);相比与经典的PCB+RPP算法,所提算法在Market1501数据集上Rank1提高了0.8%,mAP提高了4.5%;在DukeMTMC-Reid数据集上Rank1提高了5.5%,mAP提高了约7%。   相似文献   

9.
褚龙现  刘建芳  马丽 《电视技术》2015,39(21):99-103
针对现实生活中采集的特定个体数据稀疏而导致学习时产生过拟合的问题,提出了一种基于迁移学习的特定个体学习模型。首先,利用直推式迁移学习从原数据提取有用信息并将其添加到目标数据;然后,利用核主成分分析进行特征提取;最后,将各个样本建模为流形,并利用稀疏系数重建和k近邻分类器完成识别。在PAINFUL数据库上的实验结果表明,本文模型在痛苦表情上的识别精度可高达96.29%,ROC下方面积可高达0.904,相比其他几种较新的模型,本文模型取得了更好的识别性能。  相似文献   

10.
针对当前检测电商仓库容量或流量精度不高的问题,在大型物联网环境下设计基于决策树主成分分析的电商仓库检测方法。首先基于电子标签技术构建电商仓库存储系统的物联网构架模型,采用超高频射频识别技术追踪电商仓库系统的物流流量,并提取信息特征;在C4.5决策树模型下,分析仓库物流信息特征主成分,实现对电商仓库吞吐量和容量的准确检测和预估;最后通过实验进行性能测试。实验结果表明,采用该方法对仓库的吞吐量预测和物资收发数据实时检测的精度较高,提高了电商仓库的物资收发效率。  相似文献   

11.
为了提高图像标注性能,提出了一种基于视觉语义主题与反馈日志的图像自动标注方法。首 先,提取图像 前景与背景区域,分别进行处理;其次,基于WordNet构建标注词之间的语义关系模型,并 结合概率潜在语义分析(PLSA) 与高斯混合模型(GMM)建立图像底层特征、视觉语义主题与标注  相似文献   

12.
任开旭  王玉龙  刘同存  李炜 《电子学报》2019,47(9):1848-1854
协同过滤作为推荐系统核心技术,面临严重的评分数据稀疏性问题.融合物品文本信息可以有效的解决数据稀疏性问题,然而,目前的方法侧重于提取文本的单维特征,忽略了物品语义表示的多维特性.深度挖掘物品内容的多维特性可以更加精细化描述物品的语义信息,有助于提升推荐效果.为此,本文提出基于胶囊网络的概率生成模型.模型利用胶囊网络挖掘文本的多维语义特征,并以正则化方式融入概率矩阵分解框架,建立用户与物品之间的内在关系.实验结果表明本文提出的模型具有更高的评分预测精度.  相似文献   

13.
With the rapid development of mobile Internet and digital technology, people are more and more keen to share pictures on social networks, and online pictures have exploded. How to retrieve similar images from large-scale images has always been a hot issue in the field of image retrieval, and the selection of image features largely affects the performance of image retrieval. The Convolutional Neural Networks (CNN), which contains more hidden layers, has more complex network structure and stronger ability of feature learning and expression compared with traditional feature extraction methods. By analyzing the disadvantage that global CNN features cannot effectively describe local details when they act on image retrieval tasks, a strategy of aggregating low-level CNN feature maps to generate local features is proposed. The high-level features of CNN model pay more attention to semantic information, but the low-level features pay more attention to local details. Using the increasingly abstract characteristics of CNN model from low to high. This paper presents a probabilistic semantic retrieval algorithm, proposes a probabilistic semantic hash retrieval method based on CNN, and designs a new end-to-end supervised learning framework, which can simultaneously learn semantic features and hash features to achieve fast image retrieval. Using convolution network, the error rate is reduced to 14.41% in this test set. In three open image libraries, namely Oxford, Holidays and ImageNet, the performance of traditional SIFT-based retrieval algorithms and other CNN-based image retrieval algorithms in tasks are compared and analyzed. The experimental results show that the proposed algorithm is superior to other contrast algorithms in terms of comprehensive retrieval effect and retrieval time.  相似文献   

14.
传统视觉词典模型没有考虑图像的多尺度和上下文语义共生关系.本文提出一种基于多尺度上下文语义信息的图像场景分类算法.首先,对图像进行多尺度分解,从多个尺度提取不同粒度的视觉信息;其次利用基于密度的自适应选择算法确定最优概率潜在语义分析模型主题数;然后,结合Markov随机场共同挖掘图像块的上下文语义共生信息,得到图像的多尺度直方图表示;最后结合支持向量机实现场景分类.实验结果表明,本文算法能有效利用图像的多尺度和上下文语义信息,提高视觉单词的语义准确性,从而改善场景分类性能.  相似文献   

15.
陈劲宏  陈玮  尹钟 《电子科技》2022,35(6):28-34
使用ExfuseNet模型进行街景语义分割时,由于街景图像背景复杂度较高,造成感兴趣类之间的面积占比与分布不均衡,特别是图像中面积占比低且密度低的感兴趣目标,越到网络深层越容易被错误分类,最终导致模型分割性能下降。为解决该问题,文中对ExfuseNet模型进行了改进。为了获取不同尺度的语义信息,在不增加模型参数量的条件下,多监督模块采用不同空洞率的带孔卷积。在下采样特征融合后,立刻采用随机丢弃层来减少模型参数量,提高泛化力。在主输出前采用CBAM注意力机制模块以便更高效地对感兴趣目标类的深度语义信息进行采样,并在多监督模块之后采用类平衡函数来改善数据集Camvid的类不平衡问题。实验结果表明,改进的ExfuseNet模型语义分割效果有明显提升,其均交并比提升到了68.32%,Pole类分类准确率提升到38.14%。  相似文献   

16.
针对存在明显光照变化或遮挡物等室外复杂场景下,现有基于深度学习的视觉即时定位与地图构建(visual simultaneous localization and mapping,视觉SLAM)回环检测方法没有很好地利用图像的语义信息、场景细节且实时性差等问题,本文提出了一种YOLO-NKLT视觉SLAM回环检测方法。采用改进损失函数的YOLOv5网络模型获取具有语义信息的图像特征,构建训练集,对网络重训练,使提取的特征更加适用于复杂场景下的回环检测。为了进一步提高闭环检测的实时性,提出了一种基于非支配排序的KLT降维方法。通过在New College数据集和光照等变化更复杂的Nordland数据集上进行实验,结果表明:室外复杂场景下,相较于其他传统和基于深度学习的方法,所提方法具有更高的鲁棒性,可以取得更佳的准确率和实时性表现。  相似文献   

17.
Video semantic detection has been one research hotspot in the field of human-computer interaction. In video features-oriented sparse representation, the features from the same category video could not achieve similar coding results. To address this, the Locality-Sensitive Discriminant Sparse Representation (LSDSR) is developed, in order that the video samples belonging to the same video category are encoded as similar sparse codes which make them have better category discrimination. In the LSDSR, a discriminative loss function based on sparse coefficients is imposed on the locality-sensitive sparse representation, which makes the optimized dictionary for sparse representation be discriminative. The LSDSR for video features enhances the power of semantic discrimination to optimize the dictionary and build the better discriminant sparse model. More so, to further improve the accuracy of video semantic detection after sparse representation, a weighted K-Nearest Neighbor (KNN) classification method with the loss function that integrates reconstruction error and discrimination for the sparse representation is adopted to detect video semantic concepts. The proposed methods are evaluated on the related video databases in comparison with existing sparse representation methods. The experimental results show that the proposed methods significantly enhance the power of discrimination of video features, and consequently improve the accuracy of video semantic concept detection.  相似文献   

18.
Since wireless capsule endoscopy (WCE) is a novel technology for recording the videos of the digestive tract of a patient, the problem of segmenting the WCE video of the digestive tract into subvideos corresponding to the entrance, stomach, small intestine, and large intestine regions is not well addressed in the literature. A selected few papers addressing this problem follow supervised leaning approaches that presume availability of a large database of correctly labeled training samples. Considering the difficulties in procuring sizable WCE training data sets needed for achieving high classification accuracy, we introduce in this paper an unsupervised learning approach that employs Scale Invariant Feature Transform (SIFT) for extraction of local image features and the probabilistic latent semantic analysis (pLSA) model used in the linguistic content analysis for data clustering. Results of experimentation indicate that this method compares well in classification accuracy with the state-of-the-art supervised classification approaches to WCE video segmentation.  相似文献   

19.
深度学习技术的应用给SAR图像目标识别带来了大幅度的性能提升,但其对实际应用中车辆目标局部部件的变化适应能力仍有待加强。利用数据内在先验知识,在高维语义特征中学习其内在的低维子空间结构,可以提升分类模型在车辆目标变体条件下的泛化性能。本文基于目标特征的稀疏性,提出了一种稀疏先验引导卷积神经网络(Convolution Neural Network,CNN)学习的SAR目标识别方法(CNN-TDDL)。首先,该方法利用CNN提取SAR图像目标的高维语义特征。其次,通过稀疏先验引导模块,利用特征稀疏性,对目标特征内在的低维子空间结构进行学习。分类任务驱动的字典学习层(Task-Driven Dictionary Learning,TDDL)将目标特征的低维子空间以稀疏编码的形式表示,再利用非负弹性正则网增强了稀疏编码的稳定性,使稀疏编码不仅有效地表征目标的低维子空间结构,并且能够提取更具判别性的类别特征。基于运动和静止目标获取与识别(Moving and Stationary Target Acquisition and Recognition,MSTAR)数据集以及仿真和实测配对和标记实验 (Synthetic and Measured Paired and Labeled Experiment,SAMPLE) 数据集的实验表明,相比于传统字典学习方法和典型深度学习方法,CNN-TDDL在MSTAR标准操作条件(Standard Operating Conditions, SOC)下识别精度提升0.85%~5.28%,型号识别精度提升3.97%以上,表现出更好的泛化性能。特征可视化分析表明稀疏先验引导模块显著提升了异类目标特征表示的可分性。   相似文献   

20.
In this paper, we present an approach based on probabilistic latent semantic analysis (PLSA) to achieve the task of automatic image annotation and retrieval. In order to model training data precisely, each image is represented as a bag of visual words. Then a probabilistic framework is designed to capture semantic aspects from visual and textual modalities, respectively. Furthermore, an adaptive asymmetric learning algorithm is proposed to fuse these aspects. For each image document, the aspect distributions of different modalities are fused by multiplying different weights, which are determined by the visual representations of images. Consequently, the probabilistic framework can predict semantic annotation precisely for unseen images because it associates visual and textual modalities properly. We compare our approach with several state-of-the-art approaches on a standard Corel dataset. The experimental results show that our approach performs more effectively and accurately.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号