排序方式: 共有8条查询结果,搜索用时 0 毫秒
1
1.
传统的关键词自动抽取常以候选词的出现频次、位置等非语义信息构建特征,并未考虑关键词在学术文献中承担的特定语义角色,即词汇功能。通过对现有数据统计,本文发现作者标注关键词中约有67.99%是研究问题或研究方法词。因此,本文将关键词的词汇功能分为三类:“研究问题”“研究方法”和“其他”,在传统的词频特征以及位置特征基础上,融合词汇功能特征,使用计算机领域的学术文献基于分类和排序两种思想进行关键词抽取实验。实验结果表明,融合词汇功能后,关键词抽取效果得到明显提升。相较于基准实验,二分类模型的准确率Acc和F值分别相对提升24.63%和25.19%,达到了0.840和0.666;排序模型的MAP、NDCG@5和P@5分别相对提升168.32%、189.50%和148.30%,提升至0.813、0.828和0.447,证明了学术文献词汇功能特征在关键词自动抽取中具有重要作用。 相似文献
2.
3.
[目的/意义] 构建技术转移特征指标体系,提前识别具有应用潜力的专利,为专利技术转移提供信息支撑,促进技术成果转移转化。[方法/过程] 基于专利转让行为的客观事实信息,界定转让和未转让数据集,分析比对两者特征差异,构建技术、法律、市场、主体4个维度的基于专利文献自身的技术转移特征指标体系,并进行指标统计学检验以及实证模型检验。[结果/结论] 基于专利文献自身的基础特征指标能够预判技术转移,各指标影响程度相对均衡且不存在主导性指标。实证SVM模型检验该指标体系的预测效度,初步实现能够应用于国家/地区层面、机构层面、专利个体层面的技术转移特征指标体系的构建与检验,该方法具有实用性。 相似文献
4.
[目的/意义] 在进行大规模知识库构建时,基于手工方式的构建模式效率较低并且可行性较差,因此,从网络百科中自动地获取海量知识已经被越来越多的学者所关注。目前的研究主要关注于从英文网络百科数据源进行海量知识的抽取,而面向中文百科数据源进行的知识抽取研究工作尚处于起步阶段。[方法/过程] 为解决中文大规模知识库的构建问题,提出一种新的基于中文网络百科架构的大规模知识库的自动化构建方法:在第一阶段,对知识三元组中的主语和宾语之间的语义关系进行自扩展学习;在第二阶段,基于条件随机场和支持向量机协同分类器,对标注出的属性和属性值实体之间的语义关系进行预测。[结果/结论] 实验评测结果表明,该方法较前人工作在典型中文百科分类页面中的实体识别查准率和查全率分别最高有约10%和6%的提升。 相似文献
5.
6.
提出了一种基于预抽取支持向量机及模糊循环迭代算法的改进的支持向量机(Support Vector Machines,SVM)的两类文本分类方法, 与传统的SVM相比, 该方法具有高得多的计算效率。文中给出了具体算法并将其用于文本分类中,实验表明了本算法用于文本分类的有效性及其高效率。 相似文献
7.
8.
1