首页 | 官方网站   微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   205篇
  免费   26篇
  国内免费   31篇
自然科学   262篇
  2024年   9篇
  2023年   20篇
  2022年   17篇
  2021年   14篇
  2020年   21篇
  2019年   17篇
  2018年   5篇
  2017年   4篇
  2016年   3篇
  2015年   8篇
  2014年   10篇
  2013年   10篇
  2012年   6篇
  2011年   8篇
  2010年   4篇
  2009年   17篇
  2008年   10篇
  2007年   13篇
  2006年   7篇
  2005年   12篇
  2004年   6篇
  2003年   10篇
  2002年   9篇
  2001年   3篇
  2000年   2篇
  1999年   7篇
  1998年   3篇
  1997年   3篇
  1996年   1篇
  1995年   1篇
  1994年   1篇
  1993年   1篇
排序方式: 共有262条查询结果,搜索用时 139 毫秒
1.
主要工作集中在医疗数据的预处理和神经网络模型的训练.首先结合数据挖掘和自然语言处理技术,在保留医疗数据语义基础上对分词工具语料库进行补充,将中文数据分词,同时对其中大量冗余信息进行清洗,将中文数据转换成计算机可识别的编码,其次利用多种经典热门的神经网络模型来训练医疗数据,同时对比基于传统决策树模型的GBDT模型的训练结果,最后实验结果证明,对于多种疾病诊断,神经网络模型的效果要优于其他模型,诊断准确率接近90%.  相似文献   
2.
无线搜索已成为一个新的研究、开发领域.并且它主要用到信息检索、人工智能、数据挖掘、自然语言处理、排序算法等多领域的理论和技术.此外,它拥有大量的用户,有很好的经济价值,所以引起了世界各国计算机科学界和信息产业界的高度关注,目前的研究、开发十分活跃,并出现了很多值得注意的动向.  相似文献   
3.
针对传统命名实体识别方法无法有效利用实体边界信息的问题,提出一种联合实体边界检测的命名实体识别方法,即将实体边界检测作为辅助任务,增强模型对实体边界的判断能力,进而提升模型对实体的识别效果。首先,利用Bert预训练语言模型对原始文本进行特征嵌入获取词向量,并引入自注意力机制增强词对上下文信息的利用;其次,在命名实体识别任务的基础上,添加实体边界检测辅助任务,增强模型对实体边界的识别能力;再次,对比联合实体边界检测的命名实体识别方法与基线方法的有效性,并对测试结果进行消融实验;最后,进行样例分析,分析损失权重β对实体边界检测的影响。实验结果表明,在英文社交媒体数据集Twitter-2015上,联合实体边界检测的命名实体识别方法相较于基线模型取得了更高的精准率、召回率和F1值,其中F1值达到了73.57%;并且,边界检测辅助任务提升了基线方法的检测效果。所提方法能有效利用实体边界信息,从而获得更好的实体识别效果,促进了人机交互系统的发展,对自然语言处理下游任务有重要意义。  相似文献   
4.
传统股价预测模型往往只考虑时序性数据且局限于模型自身机制,而忽略舆情对股价的影响,导致预测精度不高,针对该问题,提出基于 Bert 股吧舆情分析的特征融合预测模型对股价收盘价进行涨跌幅预测。 首先,采用Bert 自然语言处理对股吧舆情以及公司公告政策进行情感分类,并转化为虚拟变量,构建金融舆情情感特征库;然后将金融舆情特征库和时序性数据合并构建特征融合矩阵;最后输入长短期记忆网络模型(LSTM)进行股价收盘价预测,并得出股价的涨跌结果。 以华银电力(600744. SH)为例进行实证分析,实验结果表明:引入股票情感特征后的模型,得到的股价走势准确率上升了 8. 63%,预测收盘价的回归指标 FMAPE FRMSE 分别下降了 23. 59%、22. 9%,R2 提高了 8. 11%,证明引入新的舆情情感特征在实际预测中能提高股价预测的准确率,可以作为精准预测股价走势的手段。  相似文献   
5.
语言是人类思想的基本承载者,而且是人类交流最重要的工具,当第一台计算机于20世纪40年代出现时,人们试图完成的第一个应用是处理的自然语言,例如开发自动翻译系统。自然语言处理是人工智能的一个子领域,它瞄准了两个紧密相关的目标;一个是使得计算机能够利用自然语言的能力与人类相互作用,第二是应用,包括自动文本理解、从数字化图书馆析取知识、信息检索、问题应答系统、机器翻译、自动文本概括、语音识别和语音合成等。与此同时,一门新的研究学科——计算语言学诞生了。HowNet不是本体论或类属词典,也不是类似于WordNet这样的词汇数据库。HowNet是适用于人类语言技术的意义计算在线附加语言知识系统。本书是对自然语言处理和HowNet全景描述及实例研究的进一步的语言知识理论探索。书中对有关高层次的HowNet规范定义作了极具特色的讨论,例如事物、部分、属性、时间、空间、事件和属性值以及它们之间的关系,对在HowNet背后创作者哲学的深入讨论是本书最有价值的部分。本书同时介绍了HowNet的意义可计算性的吸引力,描述了意义计算软件怎样能够收集这样多相关的词汇与表达式,并且在任何两个词或表达式之间给出它们的相似性值。  相似文献   
6.
随着社交网络的快速发展,人们可利用微博平台发表、分享自己的观点以及抒发某种情绪,进而产生了大量针对不同话题的博文和情绪信息,但传统的文本挖掘算法在处理这些短小且具富含个性化情感信息的微博文本方面有所欠缺。在此提出一种基于微博文本的特征权重计算方法,可据此得到博主在不同时间段的关注点,通过情绪分类,分析用户在不同时间段内的情绪变迁情况。实验结果证明此方法具有一定的可行性。  相似文献   
7.
当灾害发生时,人们经常使用微博、微信等社交媒体发布文本内容,描述伤亡人员、被困人员、车辆受损及基础设施损坏等情况。如果及时有效地处理这些在线信息,构建相应的机器学习模型,对应急响应组织进行态势感知、舆情应对或者救援活动极为有用。然而,目前对于社交媒体信息的有效处理仍存在众多挑战,比如准确分类这些简短和非正式的文本数据。从根本上讲,这些任务均涉及到数据样本问题,特别是国内目前还缺乏人工标注的中文灾害数据。为此,论文收集了2018年发生的与3起自然灾害相关的微博文本数据,并按照多层级分类方法进行了人工标注。该数据集将有助于业界解决自然语言处理时缺少灾害数据样本的现状,为进一步完善灾害危机应对和舆情管理等提供支持。  相似文献   
8.
文本挖掘中中文歧义字段的自动分词是计算机科学面临的一个难题.针对汉语书写时按句连写,词间无间隙,歧义字段分词困难的特点,对典型歧义中所蕴含的语法现象进行了归纳总结,建立了供词性编码使用的词性代码库.以此为基础,通过对具有特殊语法规则的歧义字段中的字、词进行代码设定,转化为神经网络能够接受的输入向量表示形式,然后对样本进行训练,通过改进BP神经网络的自学习来掌握这些语法规则.训练结果表明:算法在歧义字段分词上达到了93.13%的训练精度和92.50%的测试精度.  相似文献   
9.
“的”字是现代汉语中的高频词.“的”字的作用主要是用来构成短语,我们称之为“的”字短语,它是现代汉语中最常见的短语.“的”字短语造成了汉语句子中丰富的层次和复杂的语义结构.汉语句子中很多的歧义结构也是由“的”字短语引起的.因此正确地分析“的”字短语的结构对于汉语句法分析和汉语理解是很重要的.要分析“的”字短语的语义结构必须首先识别出句子中的“的”字短语.当然,当“的”字以词的形式出现在句子中时,这个句子中就出现了一个“的”字短语.可是这个“的”字短语的右边界在那里呢?如何让计算机能够正确地识别出它的右边界呢?这个问题却迄今未见有文献涉及.该文对此进行了研究并提出了研究交提出了识别“的”字短语边界的算法.  相似文献   
10.
提出了一种自适应于不同题材文本自动确定其包含的潜在主题数K的方法.考虑到大多数文本的潜在主题分布符合段落密度特性,提出以段落为中心的研究策略,通过采用基于K均值的聚类算法联同自定义判别函数的聚类分析方法,实现了段落自适应聚类下的文本潜在主题的自动发现.实验结果表明,该方法在一定程度上能有效处理普遍存在的文风自由且主题表达灵活多样的各式文本.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号