首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
周莉  闫攀 《计算机仿真》2021,38(6):278-281,409
针对传统方法没有对不良数据进行特征点提取,导致总体准确率低、召回率低和F1比值低的问题,提出无线协作中继网络多层不良数据辨识方法.利用决策树对传统数据传输通道进行优化,将不良数据平均分散到各个通道,在信号模型的基础上构建网络多层不良数据特征点提取模型,提取网络多层不良数据特征点.利用COPS算法对不良数据特征向量进行聚类,将其归一化后增量,获取聚类划分结果,同时运算出对应的聚类指标,聚类结果中平衡类内紧凑和类间分离的点就是最优解,即指标中的最小值就是最优解,实现网络多层不良数据辨识.实验结果表明,所提方法的总体准确率高、召回率高和F1比值高,说明该方法具有应用价值.  相似文献   

2.
提出了一种基于多尺度注意力深度可分离卷积残差网络模型,用于辅助视网膜血管堵塞的诊断和分类。收集了两个公开数据集共计725张视网膜眼底图像,包括正常视网膜和三种不同类型的视网膜血管堵塞。实验使用深度可分卷积提取多级图像特征,并通过空间和通道注意力机制增强这些特征,最后将增强后的多级特征融合并使用全局平均池化和全连接层进行分类。该模型在这个数据集上获得了93.79%的分类准确率,并具有较高的精准率、召回率和F1度量值等指标,可以有效地诊断视网膜堵塞。该研究为深度学习在眼科医学中的应用提供了新的思路和方法。  相似文献   

3.
针对传统深度网络模型难以精确提取建筑物边缘轮廓特征及对不同尺寸建筑物无法自适应提取的问题,提出一种膨胀卷积特征提取的多尺度特征融合深度神经网络模型(Multiscale-feature fusion Deep Neural Networks with dilated convolution,MDNNet)对遥感图像建筑物自动分割的方法。首先在ResNet101模型中引入膨胀卷积扩大提取视野保留更多特征图像分辨率;其次利用多尺度特征融合模块获取多个尺度的建筑物特征并将不同尺度的特征融合;最终利用特征解码模块将特征图恢复到原始输入图像尺寸,实现遥感图像建筑物精确分割。在WHU遥感图像数据集的实验结果表明,提出模型有效克服道路、树木和阴影等因素影响,分割结果有效保留建筑物边界细节信息,有效提升分割精度,像素准确率PA达到0.864,平均交并比mIoU达到0.815,召回率Recall达到0.862。  相似文献   

4.
李博  曹鹏  栗伟  赵大哲 《计算机应用》2013,33(4):1108-1111
针对现有医学影像分类方法对临床不同类别影像特征描述效果不一致,且尺度变化敏感的问题,提出一种基于尺度空间提取多特征进行融合的分类方法。首先构建高斯差分尺度空间,然后在尺度空间中分别从灰度、纹理、形状、频域四种互补的角度描述医学影像,最后基于最大似然估计理论构建决策级特征融合模型,实现医学影像分类。严格依照IRMA医学影像类别编码标准选择实验数据,结果表明所提方法相对已有方法分类的平均F1值得到了5%~20%不同程度的提高, 更全面描述医学影像信息, 避免了特征降维造成的信息损失,有效提高了分类的准确率,具有临床应用价值。  相似文献   

5.
基于面向对象的青海湖环湖区居民地信息自动化提取   总被引:1,自引:0,他引:1  
居民地的空间格局和密度直接反映着区域人类活动的强弱程度,影响着区域人地系统演变和生态环境可持续发展。基于高分辨率卫星遥感影像数据,提出了一种面向对象的青海湖环湖区居民地信息自动化提取方法。首先,利用尺度集理论对高分辨率卫星遥感影像进行多尺度分割,获取不同尺度的分割对象;其次,通过机器学习算法集对分割对象的自定义特征、光谱特征、几何特征和纹理特征进行训练,选取最优自动分类算法;最后,利用最优自动分类算法提取青海湖环湖区城镇居民地和农村居民地信息。采用平均召回率、平均准确率和平均F值评价指标对分类结果进行精度评价,其中,城镇居民地各评价指标均在93%以上,农村居民地各评价指标均在86%以上。结果表明:该方法提取城镇居民地和农村居民地总体精度较高,在大面积人类活动精细化监测中具有较好的科学意义和应用价值。  相似文献   

6.
在细粒度视觉识别领域,由于高度近似的类别之间差异细微,图像细微特征的精确提取对识别的准确率有着至关重要的影响。现有的相关热点研究算法中使用注意力机制提取类别特征已经成为一种趋势,然而这些算法忽略了不明显但可区分的细微部分特征,并且孤立了对象不同判别性区域之间的特征关系。针对这些问题,提出了基于中层细微特征提取与多尺度特征融合的图像细粒度识别算法。首先,利用通道与位置信息融合中层特征的权重方差度量提取图像显著特征,之后通过通道平均池化获得掩码矩阵抑制显著特征,并增强其他判别性区域细微特征的提取;然后,通过通道权重信息与像素互补信息获得通道与像素多尺度融合特征,以增强不同判别性区域特征的多样性与丰富性。实验结果表明,所提算法在数据集CUB-200-2011上达到89.52%的Top-1准确率、98.46%的Top-5准确率;在Stanford Cars数据集上达到94.64%的Top-1准确率、98.62%的Top-5准确率;在飞行器细粒度分类(FGVCAircraft)数据集上达到93.20%的Top-1准确率、97.98%的Top-5准确率。与循环协同注意力特征学习网络PCA-Net(...  相似文献   

7.
基于Base64编码的垃圾图片过滤方法   总被引:2,自引:0,他引:2       下载免费PDF全文
针对目前直接提取图片文本特征费时且分类准确率不高,以及使用图像属性特征过滤垃圾图片召回率低下等问题,提出一种快速有效的垃圾图片过滤方法。在使用4-gram切分Base64编码后的图片文本后,通过Binary特征将图片特征项表示为Binary向量,并训练支出向量机分类器来识别垃圾图片。实验结果表明,该方法不仅能够识别不同格式的垃圾图片,而且垃圾图片识别精确率、召回率和F1值分别可达99.85%、99.49%和99.67%。  相似文献   

8.
《计算机工程》2019,(1):239-245
多光谱图像的建筑物目标在不同尺度下具有不同特征,利用传统全卷积神经网络(FCN)进行识别时精度较低。为此,提出一种基于改进FCN的多光谱图像建筑物识别方法。通过旋转图像进行训练集扩充,从网络的第1层~第12层提取图像在4个旋转角度和不同尺度下的低层特征,将其归一化为同样尺寸的图像后提取更高层特征,以实现对多光谱图像建筑物的精确识别。实验结果表明,相比传统FCN方法,该方法能够提高识别的精确率与召回率。  相似文献   

9.
精确有效的网络流量分类技术对提高网络服务质量、优化网络带宽分配、加强网络安全管理以及网络相关研究具有重要意义。目前,网络流量分类技术主要按照应用类型或者协议类型对网络流量分类,不能够对未知流量和加密流量进行分析和识别。因此提出一种基于n-gram多特征的流量载荷类型分类方法来实现对网络数据包中传输内容的类型的识别,即将流量按照其载荷类型分为文本、音频、视频、图片、可执行文件、压缩加密七类。首先利用阈值筛选出高频连续子串集合,进而在该集合上提取多样化的特征来刻画连续子串的频数分布,最后基于C 4.5决策树对流量载荷类型进行准确分类。实验验证表明,在仅使用每条流1 KB数据的情况下,分类载荷类型的平均准确率和平均召回率分别达到了92.7%和91.9%,与基于熵值的分类方法相比,平均准确率和平均召回率分别提高近10.8%和12.1%。  相似文献   

10.
问句意图分类作为问答系统的关键任务之一,其能否正确分类对于后续的问答任务十分重要。针对民事纠纷问句中存在的长短不一、特征分散、种类繁多的问题,以及传统卷积神经网络和词向量的不足,为了准确获取民事纠纷问句意图类别,构建了结合BERT与多尺度CNN的民事纠纷问句意图分类模型。对民事纠纷问句数据集进行预处理;采用BERT预训练模型对问句进行语义编码和语义补充;使用4个不同的卷积通道进行卷积运算,每个卷积通道由不同尺度的卷积核进行卷积,将4种不同尺度的问句特征进行拼接得到多层次问句特征信息;通过全连接层和Softmax对问句进行分类。实验结果表明,所提出的模型在中文民事纠纷问句数据集上取得了87.41%的准确率,召回率、F1值分别达到了87.52%、87.39%,能够有效解决民事纠纷问句意图分类的问题。  相似文献   

11.
针对实际环境噪声下的手机来源识别问题,提出一种基于线性判别分析和时序卷积网络的手机来源识别方法.首先,通过分析不同手机语音特征在实际环境噪声下的分类性能,基于带能量描述符、常数Q变换域和线性判别分析得到一种新的手机语音混合特征.然后,以此混合特征为输入,基于时序卷积网络进行训练和分类.最后,在10个品牌、47种手机型号、32900条语音样本的实际环境噪声语音库上的测试结果显示,所提方法的平均识别准确率达到99.82%.此外,与经典的基于带能量描述符和支持向量机的方法,以及基于常数Q变换域和卷积神经网络的方法相比,平均识别准确率分别提高了0.44和0.54个百分点,平均召回率分别提高了0.45和0.55个百分点,平均精确率分别提高了0.41和0.57个百分点,平均F1分数分别提高了0.49和0.55个百分点.实验结果表明,所提方法具有更优的综合识别性能.  相似文献   

12.
This paper describes feature extraction methods using higher order statistics (HOS) of wavelet packet decomposition (WPD) coefficients for the purpose of automatic heartbeat recognition. The method consists of three stages. First, the wavelet package coefficients (WPC) are calculated for each different type of ECG beat. Then, higher order statistics of WPC are derived. Finally, the obtained feature set is used as input to a classifier, which is based on k-NN algorithm. The MIT-BIH arrhythmia database is used to obtain the ECG records used in this study. All heartbeats in the arrhythmia database are grouped into five main heartbeat classes. The classification accuracy of the proposed system is measured by average sensitivity of 90%, average selectivity of 92% and average specificity of 98%. The results show that HOS of WPC as features are highly discriminative for the classification of different arrhythmic ECG beats.  相似文献   

13.
An important tool for the heart disease diagnosis is the analysis of electrocardiogram (ECG) signals, since the non-invasive nature and simplicity of the ECG exam. According to the application, ECG data analysis consists of steps such as preprocessing, segmentation, feature extraction and classification aiming to detect cardiac arrhythmias (i.e., cardiac rhythm abnormalities). Aiming to made a fast and accurate cardiac arrhythmia signal classification process, we apply and analyze a recent and robust supervised graph-based pattern recognition technique, the optimum-path forest (OPF) classifier. To the best of our knowledge, it is the first time that OPF classifier is used to the ECG heartbeat signal classification task. We then compare the performance (in terms of training and testing time, accuracy, specificity, and sensitivity) of the OPF classifier to the ones of other three well-known expert system classifiers, i.e., support vector machine (SVM), Bayesian and multilayer artificial neural network (MLP), using features extracted from six main approaches considered in literature for ECG arrhythmia analysis. In our experiments, we use the MIT-BIH Arrhythmia Database and the evaluation protocol recommended by The Association for the Advancement of Medical Instrumentation. A discussion on the obtained results shows that OPF classifier presents a robust performance, i.e., there is no need for parameter setup, as well as a high accuracy at an extremely low computational cost. Moreover, in average, the OPF classifier yielded greater performance than the MLP and SVM classifiers in terms of classification time and accuracy, and to produce quite similar performance to the Bayesian classifier, showing to be a promising technique for ECG signal analysis.  相似文献   

14.
提出基于无阈值递归图和深度残差网络相结合的脑电信号情感识别方法。基于非线性动力学理论,将脑电信号转化为无阈值递归图,克服了传统递归图分析中阈值选取的问题,同时脑电信号非线性特征被映射到二维平面。通过深度残差网络实现特征图非线性特征的自动提取,建立情感脑电分类模型,实现了单导联脑电信号情感识别。为进一步提高识别精度,联合四个单导联识别结果,采用“投票法”完成多导联脑电信号情感状态的联合识别。仿真结果表明,对Fp1、Fp2、F3、F4单导联脑电信号情感识别,平均准确率分别为93.82%、93.62%、94.54%、92.92%;多导联平均准确率为94.95%,提高了识别的准确率,具有很大的实用价值。  相似文献   

15.
针对图像自动标注中底层视觉特征与高层语义之间的语义鸿沟问题,在传统字典学习的基础上,提出一种基于多标签判别字典学习的图像自动标注方法。首先,为每幅图像提取多种类型特征,将多种特征组合作为字典学习输入特征空间的输入信息;然后,设计一个标签一致性正则化项,将原始样本的标签信息融入到初始的输入特征数据中,结合标签一致性判别字典和标签一致性正则化项进行字典学习;最后,通过得到的字典和稀疏编码矩阵求解标签稀疏编向量,实现未知图像的语义标注。在Corel 5K数据集上测试其标注性能,所提标注方法平均查准率和平均查全率分别可达到35%和48%;与传统的稀疏编码方法(MSC)相比,分别提高了10个百分点和16个百分点;与距离约束稀疏/组稀疏编码方法(DCSC/DCGSC)相比,分别提高了3个百分点和14个百分点。实验结果表明,所提方法能够较好地预测未知图像的语义信息,与当前几种流行的图像标注方法进行比较,所提方法具有较好的标注性能。  相似文献   

16.
针对现有人工神经网络方法在网络加密流量分类应用中结构复杂且计算量大的问题,首次提出了一种基于特征融合的轻量级网络模型Inception-CNN,用于端到端加密流量的分类,在显著提高分类结果准确性的同时,大大降低了网络计算复杂度。利用Inception模块1×1卷积进行降维,减少了计算参数;从不同的感受野中做到不同级别上的特征提取,将多种不同尺寸滤波器卷积的特征进行融合,从而在原始数据中提取到更加丰富的特征自动学习原始输入和预期输出之间的非线性关系;利用池化操作没有参数的特性,防止产生过拟合。选择使用国际公开ISCX VPN-nonVPN数据集作为实验数据,采用softmax作为分类器,实现了对加密流量的准确分类。实验结果表明,该模型分类准确率达到97.3%、精确率达到97.2%、召回率达到97.7%、F1-score达到97.5%,并且对不同类别的加密流量识别效果也更加均衡。  相似文献   

17.
This paper comparatively analyzes a method to automatically classify case studies of building information modeling (BIM) in construction projects by BIM use. It generally takes a minimum of thirty minutes to hours of collection and review and an average of four information sources to identify a project that has used BIM in a manner that is of interest. To automate and expedite the analysis tasks, this study deployed natural language processing (NLP) and commonly used unsupervised learning for text classification, namely latent semantic analysis (LSA) and latent Dirichlet allocation (LDA). The results were validated against one of representative supervised learning methods for text classification—support vector machine (SVM). When LSA and LDA detected phrases in a BIM case study that had higher similarity values to the definition of each BIM use than the threshold values, the system determined that the project had deployed BIM in the detected approach. For the classification of BIM use, the BIM uses specified by Pennsylvania State University were utilized. The approach was validated using 240 BIM case studies (512,892 features). When BIM uses were employed in a project, the project was labeled as “1”; when they were not, the project was labeled as “0.” The performance was analyzed by changing parameters: namely, document segmentation, feature weighting, dimensionality reduction coefficient (k-value), the number of topics, and the number of iterations. LDA yielded the highest F1 score, 80.75% on average. LDA and LSA yielded high recall and low precision in most cases. Conversely, SVM yielded high precision and low recall in most cases and fluctuations in F1 scores.  相似文献   

18.
针对LDA主题模型用于产品特征抽取中存在的问题,提出将句法分析和主题模型相结合的SA-LDA方法。首先基于句法分析对产品所在类别下的所有产品评论进行分析抽取显式特征,并聚类产生特征集和观点集,据此构建语料库。接着对待分析产品的每条评论,提取主观句并利用改进LDA模型对其主题进行学习,根据语料库构建must-link和cannot-link约束条件,在主题更新时对其进行约束和引导,每个主题对应一个特征类。实验表明,本文方法对显式特征和隐式特征都具有很好的实验效果,且相比传统的方法和其他改进方法在保证召回率的同时对准确率也有一定程度的提高。   相似文献   

19.
Quality Phrase挖掘是从文本语料库中提取有意义短语的过程,是文档摘要、信息检索等任务的基础。然而现有的无监督短语挖掘方法存在候选短语质量不高、Quality Phrase的特征权重平均分配的问题。本文提出基于统计特征的Quality Phrase挖掘方法,将频繁N-Gram挖掘、多词短语组合性约束及单词短语拼写检查相结合,保证了候选短语的质量;引入公共知识库对候选短语添加类别标签,实现了Quality Phrase特征权重的分配,并考虑特征之间相互影响设置惩罚因子调整权重比例;按照候选短语的特征加权函数得分排序,提取Quality Phrase。实验结果表明,基于统计特征的Quality Phrase挖掘方法明显提高了短语挖掘的精度,与最优的无监督短语挖掘方法相比,精确率、召回率及F1-Score分别提升了5.97%,1.77%和4.02%。  相似文献   

20.
在多标记学习中,如何处理高维特征一直是研究难点之一,而特征提取算法可以有效解决数据特征高维性导致的分类性能降低问题。但目前已有的多标记特征提取算法很少充分利用特征信息并充分提取"特征-标记"独立信息及融合信息。基于此,提出一种基于特征标记依赖自编码器的多标记特征提取方法。使用核极限学习机自编码器将原标记空间与原特征空间融合并产生重构后的新特征空间。一方面最大化希尔伯特-施密特范数以充分利用标记信息;另一方面通过主成分分析来降低特征提取过程中的信息损失,结合二者并分别提取"特征-特征"和"特征-标记"信息。通过在Yahoo多组高维多标记数据集上的对比实验表明,该算法的性能优于当前五种主要的多标记特征提取方法,验证了所提算法的有效性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号