全文获取类型
收费全文 | 801篇 |
免费 | 106篇 |
国内免费 | 91篇 |
学科分类
工业技术 | 998篇 |
出版年
2024年 | 1篇 |
2023年 | 2篇 |
2022年 | 7篇 |
2021年 | 9篇 |
2020年 | 9篇 |
2019年 | 18篇 |
2018年 | 13篇 |
2017年 | 17篇 |
2016年 | 20篇 |
2015年 | 26篇 |
2014年 | 34篇 |
2013年 | 35篇 |
2012年 | 52篇 |
2011年 | 82篇 |
2010年 | 81篇 |
2009年 | 85篇 |
2008年 | 83篇 |
2007年 | 85篇 |
2006年 | 74篇 |
2005年 | 89篇 |
2004年 | 54篇 |
2003年 | 37篇 |
2002年 | 30篇 |
2001年 | 17篇 |
2000年 | 7篇 |
1999年 | 5篇 |
1998年 | 2篇 |
1995年 | 3篇 |
1994年 | 4篇 |
1993年 | 2篇 |
1992年 | 2篇 |
1991年 | 1篇 |
1989年 | 2篇 |
1988年 | 2篇 |
1987年 | 1篇 |
1986年 | 1篇 |
1983年 | 1篇 |
1980年 | 1篇 |
1979年 | 1篇 |
1964年 | 1篇 |
1963年 | 1篇 |
1955年 | 1篇 |
排序方式: 共有998条查询结果,搜索用时 15 毫秒
31.
Researches in text categorization have been confined to whole-document-level classification, probably due to lack of full-text test collections. However, full-length documents available today in large quantities pose renewed interests in text classification. A document is usually written in an organized structure to present its main topic(s). This structure can be expressed as a sequence of subtopic text blocks, or passages. In order to reflect the subtopic structure of a document, we propose a new passage-level or passage-based text categorization model, which segments a test document into several passages, assigns categories to each passage, and merges the passage categories to the document categories. Compared with traditional document-level categorization, two additional steps, passage splitting and category merging, are required in this model. Using four subsets of the Reuters text categorization test collection and a full-text test collection of which documents are varying from tens of kilobytes to hundreds, we evaluate the proposed model, especially the effectiveness of various passage types and the importance of passage location in category merging. Our results show simple windows are best for all test collections tested in these experiments. We also found that passages have different degrees of contribution to the main topic(s), depending on their location in the test document. 相似文献
32.
SVM分类算法处理高维数据具有较大优势,但其未考虑语义的相似性度量问题,而LDA主题模型可以解决传统的文本分类中相似性度量和主题单一性问题.为了充分结合SVM和LDA算法的优势并提高分类精确度,提出了一种新的LDA-wSVM高效分类算法模型.利用LDA主题模型进行建模和特征选择,确定主题数和隐主题—文本矩阵;在经典权重计算方法上作改进,考虑各特征项与类别的关联度,设计了一种新的权重计算方法;在特征词空间上使用这种基于权重计算的wSVM分类器进行分类.实验基于R软件平台对搜狗实验室的新闻文本集进行分类,得到了宏平均值为0.943的高精确度分类结果.实验结果表明,提出的LDA-wSVM模型在文本自动分类中具有很好的优越性能. 相似文献
33.
34.
35.
基于关键词语的文本特征选择及权重计算方案 总被引:2,自引:3,他引:2
文本的形式化表示一直是文本分类的重要难题.在被广泛采用的向量空间模型中,文本的每一维特征的权重就是其TFIDF值,这种方法难以突出对文本内容起到关键性作用的特征。提出一种基于关键词语的特征选择及权重计算方案,它利用了文本的结构信息同时运用互信息理论提取出对文本内容起到关键性作用的词语;权重计算则综合了词语位置、词语关系和词语频率等信息,突出了文本中关键词语的贡献,弥补了TFIDF的缺陷。通过采用支持向量机(SVM)分类器进行实验,结果显示提出的Score权重计算法比传统TFIDF法的平均分类准确率要高5%左右。 相似文献
36.
基于包含全部特征的类别特征数据库,利用基于距离度量的Rocchio算法、Fast TC算法和基于概率模型的NB算法,从定量的角度来分析停用词、词干合并、数字和测试文档长度4个因素对文本分类精度的影响程度。实验表明,过滤停用词方法是一种无损的特征压缩手段,词干合并虽然对分类精度略有减弱,但仍能保证特征压缩的可行性。数字与其他词汇的语义关联性提高了Rocchio算法和Fast TC算法的分类精度,但降低了视特征彼此独立的NB算法的分类精度。3种算法在测试文档取不同数量的关键词时分类精度的变化趋势说明了特征所包含的有益信息和噪音信息对分类精度的影响。 相似文献
37.
中、轻冰区往往因缺乏覆冰资料,难以进行覆冰频率统计,给输电线路设计冰厚的合理取值带来困难。基于覆冰强度的概念,提出一种简单的覆冰重现期分析模型,试图解决历史覆冰重现期难以确定的问题。认为在同一气候区内相邻地区间冰厚随高程的变率是相近的,据此,导出安徽沿江江南地区设计冰厚的经验计算公式,并进行合理性检验。 相似文献
38.
针对文本分类任务中标注数量少的问题,提出了一种基于词共现与图卷积相结合的半监督文本分类方法。模型使用词共现方法统计语料库中单词的词共现信息,过滤词共现信息建立一个包含单词节点和文档节点的大型图结构的文本图,将文本图中邻接矩阵和关于节点的特征矩阵输入到结合注意力机制的图卷积神经网络中实现了对文本的分类。实验结果表明,与目前多种文本分类算法相比,该方法在经典数据集20NG、Ohsumed和MR上均取得了更好的效果。 相似文献
39.
自动文本分类特征选择方法研究 总被引:4,自引:4,他引:4
文本分类是指根据文本的内容将大量的文本归到一个或多个类别的过程,文本表示技术是文本分类的核心技术之一,而特征选择又是文本表示技术的关键技术之一,对分类效果至关重要。文本特征选择是最大程度地识别和去除冗余信息,提高训练数据集质量的过程。对文本分类的特征选择方法,包括信息增益、互信息、X^2统计量、文档频率、低损降维和频率差法等做了详细介绍、分析、比较研究。 相似文献
40.
邮件分类是指在给定的分类体系下,根据邮件的内容和属性,确定其类别标签的过程。将最大熵模型应用于邮件分类中,给出了邮件的预处理过程,介绍了邮件信头特征,分析比较了特征数量和迭代次数、邮件特征字段对分类结果的影响,以及对层次分类和平面分类的效果进行了比较。实验表明,特征数量和迭代次数分别取2 000和250时为宜;充分利用邮件各字段信息,取得的总体分类效果最好,但对合法邮件,利用邮件头及邮件标题却取得了最好结果,并在层次分类中验证了这点,层次分类效果要优于平面分类。最后进行了总结和展望。 相似文献