首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到10条相似文献,搜索用时 15 毫秒
1.
随着自然语言处理(NLP)的不断发展,深度学习被逐渐运用于文本分类中.然而大多数算法都未有效利用训练文本的实例信息,导致文本特征提取不全面.为了有效利用对象的实例信息,本文提出最近邻注意力和卷积神经网络的文本分类模型(CNN-AKNN).通过引入基于加权卡方距离的最近邻改进算法训练文本,构建文本对象的注意力,然后将注意力机制与卷积神经网络相结合实现全局特征与局部特征的提取,最后通过softmax函数进行文本分类.本文采用搜狗新闻语料库、中山大学语料库以及英文新闻语料库AG_news进行大量实验,结果表明本文所使用的改进算法相较于基准算法效果更优,更有利于提取模型的隐含特征.  相似文献   

2.
网络信息的多样性和表达不规范性对数据的挖掘翻译和情感分析造成了较大的难度。研究基于语料库领域特点,以候选情感关联性来进行句子情感词性的表达,并引入Att-BiLSTM算法实现对语义文本信息的特征提取和改进K-SVD算法实现分词特征提取,将语料句子按照词、词性、音节和位置来进行多特征向量建构,并构建起语料库翻译数据标识系统。将研究提出的多特征算法进行性能应用分析,结果表明,研究提出的算法在情感词性数据集下的平均准确率均在75%以上,且其在两种向量和四种向量下的正负性分类准确率分别为89.54%和80.15%),在中文语料库识别中具有超过85%的准确率,英语语料库下的F1值为85.47,数据处理误差均小于其他对比算法。研究提出的算法能有效把握语料句子信息之间的关联性,并从情感性和特征值上进行权重识别,有效为数据翻译提供较为全面的识别依据。  相似文献   

3.
文本分类是信息检索和数据挖掘中的重要主题之一.文中提出了一种基于贪婪覆盖算法的文本分类方法,首先对文本进行分词,分词的结果用CHI统计量的方法提取特征,使用TF-IDF-ICSD进行特征权重计算.对贪婪覆盖算法采用另一种选取初始点的方法来构建分类器,用复旦大学语料库作为测试数据集,并与BP算法相比较.实验结果表明文本提出的方法是有效的.  相似文献   

4.
使用Python爬虫从新浪微博获取数据,通过数据清洗、采用Jieba分词工具进行分词、去停用词等对数据进行预处理,构建了基于词典和文本分类算法的文本情感分析模型,对微博评论展开研究,模型准确率为0.878.  相似文献   

5.
n-grams语言模型旨在利用多个词的组合形式生成文本特征,以此训练分类器对文本进行分类。然而n-grams自身存在冗余词,并且在与训练集匹配量化的过程中会产生大量稀疏数据,严重影响分类准确率,限制了其使用范围。对此,基于n-grams语言模型,提出一种改进的n-grams语言模型--W-POS。将分词后文本中出现概率较小的词和冗余词用词性代替,得到由词和词性的不规则排列组成的W-POS语言模型,并提出该语言模型的选择规则、选择算法以及与测试集的匹配算法。在复旦大学中文语料库和英文语料库20Newsgroups中的实验结果表明,W-POS语言模型既继承了n-grams语言模型减少特征数量、携带部分语义和提高精度的优点,又克服了n-grams语言模型产生大量稀疏数据、含有冗余词的缺陷,并验证了选择和匹配算法的有效性。  相似文献   

6.
针对现有深度学习方法在文本情感分类任务中特征提取能力方面的不足,提出基于扩展特征和动态池化的双通道卷积神经网络的文本情感分类算法.首先,结合情感词、词性、程度副词、否定词和标点符号等多种影响文本情感倾向的词语特征,形成一个扩展文本特征.然后,把词向量特征与扩展文本特征分别作为卷积神经网络的两个输入通道,采用动态k-max池化策略,提升模型提取特征的能力.在多个标准英文数据集上的文本情感分类实验表明,文中算法的分类性能不仅高于单通道卷积神经网络算法,而且相比一些代表性算法也具有一定的优势.  相似文献   

7.
李世昌  李军 《测控技术》2021,40(2):140-144
针对短期风电功率预测,提出一种基于稀疏表示特征提取的建模方法.为了构建预测模型,将历史风电功率数据构成具有时延的输入-输出数据对,将时延输入数据向量作为初始字典,由K-均值奇异值分解(K-SVD)算法将其进行稀疏分解与变换至稀疏域以得到学习后的字典,由正交匹配追踪(OMP)算法获取相应的稀疏编码向量,再将该向量作为极限学习机(ELM)或支持向量机(SVM)的输入来构建全局回归模型.为了验证所提出的方法的有效性,将所提出的方法用于短期风电功率预测中,在同等条件下与单一SVM、ELM方法和非字典学习的其他稀疏表示建模方法进行了比较.实验结果表明,不同的稀疏表示建模方法均能取得很好的预测效果,其中所提出的方法具有更好的预测效果,显示出其有效性.  相似文献   

8.
基于类别特征向量表示的中文文本分类算法*   总被引:1,自引:0,他引:1  
采用一种无须分词的中文文本分类方法,以二元汉字串表示文本特征,与需要利用词典分词的分类模型相比,避免了分词的复杂计算;为提高以bi-gram项表示文本特征的分类算法的准确率,提出了基于类别特征向量表示的中文文本分类算法.通过实验结果及理论分析,验证了该算法的有效性.  相似文献   

9.
提出了基于深度玻尔兹曼机的电力投诉工单识别分类模型。首先对投诉工单数据进行数据清洗,对处理后的数据使用结巴分词算法进行分词并制作字典,再使用词袋模型对所分词向量化处理提取文本特征。进一步地,通过TF-IDF算法找出关键词以及余弦相似度计算训练、测试文档间的相似度;最后使用深度玻尔兹曼机对投诉工单进行分类。实验证明,分类的准确度达到80%,有效地缓解电力部门的工作压力,提高工作效率。  相似文献   

10.
目前医疗文本数据的结构化处理大多依赖通用分词工具或医学知识库,而通用分词工具对专业术语的识别效果并不理想,且国内的中文医学术语标准化进程不足。针对此问题,提出一种基于统计信息对镜检文本数据进行结构化处理的方法。该方法以聚类文本为基础,基于断点词与重合串分词,利用分词词串的统计信息获取关键词以及词语类别信息,并进行词语扩充,从而得到最终词库作为字典。利用基于字典的双向最大匹配分词算法,对文本数据进行分词,并通过添加否定检出的规则,获取结构化数据。实验结果表明,该方法获取的医学词库的准确率达到了80%,实现了不依赖分词工具获得结构化数据的功能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号