共查询到17条相似文献,搜索用时 125 毫秒
1.
本文分析了传统名称策略在本体映射中的不足.针时此问题,提出了一种新的基于WordNet名称策略算法,该算法实现名称核心词汇的WordNet定位用以消除词义模糊性,从而提高词相似度计算的精确度,并在词相似度合并中采用C-C原则,改善传统词相似度合并的盲目性.实验结果显示,该算法在保证查全率的同时有效的提高了查准率. 相似文献
2.
分析传统本体映射中名称策略与结构策略的主要不足.针对前者提出一种新的基于WordNet名称策略,该策略实现名称核心词汇的WordNet定住用以消除词义模糊性,从而提高词相似度计算的精确度,并在词相似度合并中采用C-C原则,改善传统词相似度合并的盲目性;针对后者,提出基于概念信息量的相似度传播算法,通过本体的结构信息获取概念信息量,提高结构策略的可信度.实验结果显示,改进后的算法在保证查全率的同时有效的提高了查准率. 相似文献
3.
4.
自发性口语评测中如何提取文本语义相似度评分特征是一个非常困难的问题。针对这个问题本文采用基于词网络(WordNet)的Lesk算法计算词与词之间的语义相似度,在词义相似度的基础上提出了词与文本之间的语义相似度算法,提出了一种完整的基于词网络的文本语义相似度评分特征提取方法。实验利用该方法在考生答案与标准答案之间中提取文本语义相似度评分特征,并利用该特征与老师评分进行相关度分析,实验结果表明该算法可以有效的表征考生答案和标准答案之间的文本语义相似度。 相似文献
5.
边振兴 《计算机工程与应用》2011,47(19):128-131
给出了一个新的用于计算WordNet中概念的语义相似度的IC(信息内容)模型。该模型以WordNet的is_a关系为基础,只通过WordNet本身结构就可求出WordNet中每个概念的IC值,而不需要其他语料库的参与。该模型不仅考虑了每个概念所包含的子节点的个数,而且将该概念所处WordNet分类树中的深度引入到模型当中,使得概念的IC值更为精确。实验结果显示将该模型代入到多个相似度算法当中,可以明显提高这些算法的性能。 相似文献
6.
7.
《计算机应用与软件》2014,(1)
传统的基于信息内容的概念相似度算法在计算信息内容值时过于依赖语料库,给出一个新的只通过WordNet结构计算概念语义相似度的信息内容模型。该模型以WordNet的is-a关系为基础,不仅考虑了概念所包含的子节点个数和所处深度,而且将该概念所处的簇及父节点的信息内容值引入到模型中,使得概念的信息内容值更为精确。实验结果显示将该模型应用到领域本体的概念相似度计算中,可以明显提高现有相似度算法的性能。 相似文献
8.
9.
10.
当前大部分WordNet词语相似度计算方法由于未充分考虑词语的语义信息和位置关系,导致相似度的准确率降低。为解决上述问题,提出了一种使用词向量模型Word2Vec计算WordNet词语相似度的新方法。在构建WordNet数据集时提出一种新形式,不再使用传统的文本语料库,同时提出信息位置排列方法对数据集加以处理。利用Word2Vec模型训练WordNet数据集后得到向量表示。在公开的R&G-65、M&C-30和MED38词语相似度测评集上完成了词语相似度计算任务,从多个角度进行了Pearson相关系数对比实验。结果显示该文计算的相似度值与人工判定值计算取得的Pearson相关系数指标得到了显著提升。 相似文献
11.
传统的WordNet应用程序编程接口(API)在使用时是基于文件操作的,每执行一次API都需要到库文件中查找,因此导致基于API操作的文本分析与相似度计算耗时较为严重.因此,提出一种WordNet API改进方法:将WordNet概念语义网的构造过程移植到内存中,同时增加了若干便于相似度计算的API,使得概念之间关系的追踪进程和文本相似度计算过程得以加快.该方法在Mashup服务发现过程中得以应用,实验证明利用改进后的API能够有效地提高Mashup服务的查询效率和查全率. 相似文献
12.
13.
14.
The Google Similarity Distance 总被引:15,自引:0,他引:15
Rudi L. Cilibrasi Paul M.B. Vitanyi 《Knowledge and Data Engineering, IEEE Transactions on》2007,19(3):370-383
Words and phrases acquire meaning from the way they are used in society, from their relative semantics to other words and phrases. For computers, the equivalent of "society" is "database," and the equivalent of "use" is "a way to search the database". We present a new theory of similarity between words and phrases based on information distance and Kolmogorov complexity. To fix thoughts, we use the World Wide Web (WWW) as the database, and Google as the search engine. The method is also applicable to other search engines and databases. This theory is then applied to construct a method to automatically extract similarity, the Google similarity distance, of words and phrases from the WWW using Google page counts. The WWW is the largest database on earth, and the context information entered by millions of independent users averages out to provide automatic semantics of useful quality. We give applications in hierarchical clustering, classification, and language translation. We give examples to distinguish between colors and numbers, cluster names of paintings by 17th century Dutch masters and names of books by English novelists, the ability to understand emergencies and primes, and we demonstrate the ability to do a simple automatic English-Spanish translation. Finally, we use the WordNet database as an objective baseline against which to judge the performance of our method. We conduct a massive randomized trial in binary classification using support vector machines to learn categories based on our Google distance, resulting in an a mean agreement of 87 percent with the expert crafted WordNet categories 相似文献
15.
The estimation of semantic similarity between words is an important task in many language related applications. In the past, several approaches to assess similarity by evaluating the knowledge modelled in an ontology have been proposed. However, in many domains, knowledge is dispersed through several partial and/or overlapping ontologies. Because most previous works on semantic similarity only support a unique input ontology, we propose a method to enable similarity estimation across multiple ontologies. Our method identifies different cases according to which ontology/ies input terms belong. We propose several heuristics to deal with each case, aiming to solve missing values, when partial knowledge is available, and to capture the strongest semantic evidence that results in the most accurate similarity assessment, when dealing with overlapping knowledge. We evaluate and compare our method using several general purpose and biomedical benchmarks of word pairs whose similarity has been assessed by human experts, and several general purpose (WordNet) and biomedical ontologies (SNOMED CT and MeSH). Results show that our method is able to improve the accuracy of similarity estimation in comparison to single ontology approaches and against state of the art related works in multi-ontology similarity assessment. 相似文献
16.
在扩展空间向量模型(VSM)的基础上设计并实现了一种Web服务发现机制。该机制结合Web服务语法和结构信息,利用相似度计算实现Web服务的发现。系统通过分析Web服务描述文档结构特点,改进现有的VSM模型,并加入WordNet扩展同义词相似概念,使得语义上等价的词被映射到相似的特征向量上,消除存在歧义的上下文,定义Web服务语法相似度函数,实现Web服务潜在语义信息的进一步挖掘。实验评测和分析表明,基于扩展VSM的方式使Web服务发现的查准率提高了9.7%,错误率降低了8.5%。 相似文献
17.
WNCT:一种WordNet概念自动翻译方法 总被引:2,自引:1,他引:1
WordNet是在自然语言处理领域有重要作用的英语词汇知识库,该文提出了一种将WordNet中词汇概念自动翻译为中文的方法。首先,利用电子词典和术语翻译工具将英语词汇在义项的粒度上翻译为中文;其次,将特定概念中词汇的正确义项选择看作分类问题,归纳出基于翻译唯一性、概念内和概念间翻译交集、中文短语结构规则,以及基于PMI的翻译相关性共12个特征,训练分类模型实现正确义项的选择。实验结果表明,该方法对WordNet 3.0中概念翻译的覆盖率为85.21%,准确率为81.37%。 相似文献