首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 62 毫秒
1.
一种基于加权领域本体的语义检索方法   总被引:2,自引:0,他引:2  
提出了新方法WOSR,以对已经被本体概念标注的领域信息资源进行语义检索.WOSR方法首先建立领域本体,再采用均等概率分布方法为概念赋权,然后通过概念的权重求出概念相似度,最后计算用户检索请求和信息资源之间的语义相似度,并根据相似度的大小排序输出检索结果.实验结果表明,WOSR方法比其他经典方法的检索效果更好.  相似文献   

2.
针对基于关键词匹配的传统检索方法存在的不足,通过将语义引入到检索过程中,可以构建一个建立在本体基础上的语义检索模型。为了提高检索结果的准确率和全面率,通过使用本体的语义推理是一种很有效的办法。  相似文献   

3.
提出一种基于本体的图像检索方法。该方法结合特定领域专家知识和对象例图,采用视觉对象本体来描述图像内特定对象的视觉特征,从而构建该领域包含视觉描述的知识库。在检索过程中,利用知识库内的对象的视觉本体描述和目标图像库内的图像低层特征相匹配执行图像检索任务,从而实现在高层次语义上的图像检索。实验结果表明了该方法的有效性和可行性,并在一定程度上缩小了视觉低层特征同图像高层语义的鸿沟。  相似文献   

4.
传统的视频检索大多采用基于关键词的方法,难以获得让用户满意的查准率和查全率。为此提出一种基于本体的视频检索技术,该技术借助于领域本体,以其基本概念为关键词通过互联网图像搜索引擎在线获取样本图像组,提取SIFT特征建立图像特征词典,抽取图像特征直方图并计算相似度,辅助完成视频的自动标注,初始化视频检索库;同时,借助于领域本体,对从用户的查询输入中抽取的关键词进行语义扩展,将以扩展概念集进行检索的结果返回给用户,以此实现基于本体的视频检索。最后,结合实例对该算法进行实现和分析,表明了该方法的可行性和有效性。  相似文献   

5.
一种基于领域本体的混合信息检索模型   总被引:3,自引:2,他引:3       下载免费PDF全文
针对语义检索中本体不能提供所有知识的问题,提出一种基于领域本体的混合信息检索模型。该模型利用领域本体中概念间的语义关系,结合关键词检索和语义检索,建立关键词基础矩阵和语义扩展矩阵两层索引矩阵,使系统检索在没有可用本体知识时能自动调整为关键词检索,保证一定的检索性能。两者的结合有效改善了检索性能。  相似文献   

6.
针对现有资源平台无法互通共享资源,资源库检索系统仅依靠用户输入的单词关键字描述检索资源而无法挖 掘用户需求中的语义信息的问题,提出了一种基于本体的资源反馈检索模型。该模型通过构建本体、概念相似度计算、查询关 键字扩展等关键技术,利用了用户多次反馈中的包含语义知识,满足了用户的查询需求。实验表明,该模型能够有效提高检索 的性能。  相似文献   

7.
当前传统的信息检索技术并不能准确的捕获用户的信息需求,基于本体的方法虽然考虑到语义搜索的复杂性但是却迫使用户使用一个十分难以掌握的查询语法.通过对用户查询习惯和查询短语的分析,我们发现查询短语通常为简单的动宾结构短语.针对化学领域科学效应知识和用户的查询习惯的特点,给出了一种从自然语言查询到本体知识映射的语义检索的方法.  相似文献   

8.
基于领域本体的学习资源语义检索模型*   总被引:2,自引:1,他引:2  
为解决e-learning领域内学习资源的有效检索,提出了一个基于领域本体的e-learning学习资源语义检索模型。用Protégé构建了教育技术领域本体,通过对检索方法的研究分析和算法实现,开发了基于本体语义检索原型系统;并由对比全文检索和基于本体的语义检索两种方法的查准率,证明了基于本体的语义检索方式,在一定程度上能解决目前传统检索中存在的不足。  相似文献   

9.
提出一种基于本体的视频检索方法,利用本体的基本概念获取样本图像组,并建立样本图像组和未标注视频的共同特征空间来实现视频的标注;在视频标注的基础上,对视频领域本体的基本概念集进行扩展来提高查询的命中率,以对扩展概念集记录进行检索的方式完成视频的检索。  相似文献   

10.
一种基于本体的混合检索方法   总被引:1,自引:1,他引:0  
提出了一种基于本体的,综合改进的spread activation算法和语义分析的混合检索方法.通过改进的spread activation算法和本体实例之间语义关联强弱的分析,得到一组查询词的相似词集合,从而提高了查询关键字到本体概念映射的完整性与准确性.设计实现了相应的检索系统,实验表明,该系统可以有效地提高检索的查全率与查准率.  相似文献   

11.
针对基于关键词WEB图像检索中的语义缺失问题,利用本体的方法描述WEB图像的语义特征,构建了基于智能体和语义特征的WEB图像检索模型,该模型以领域Ontology描述WEB图像的语义特征,通过多个Agent模块分工协作,完成满足用户请求的WEB图像检索.并在Corel提供的图像上进行了仿真实验,验证了该模型解决了基于关键词WEB图像检索模型中的语义缺失问题,提高了WEB图像检索速度和准确率.  相似文献   

12.
基于本体论和多主体的信息检索服务器   总被引:41,自引:2,他引:41  
Internet技术的发展为人们提供了方便快捷的信息获取手段 ,然而要从如此庞大且瞬息万变的 Internet上检索信息 ,需要快速准确的信息检索工具的协助 .提出了一种利用多智能主体和本体论 (ontology)理论设计的信息检索服务器 .它集成了界面主体、预处理主体、管理主体、信息处理主体和具有移动性的信息搜集主体 ,并利用ontology对文档进行领域分类 ,同时对用户的查询信息进行规范 .该系统能够比较及时地反映网络中信息的动态变化 ,并具有较好的信息导引能力  相似文献   

13.
基于本体的信息集成的研究与应用   总被引:2,自引:0,他引:2  
本体是在分布式环境下构建复杂系统的一种新兴技术,阐述了本体的概念以及它在Web信息集成中的应用.把Web技术应用到企业的分布式环境中,完成异构系统信息的交换, 实现了一个基于本体的信息集成的数据库平台.并给出了信息集成系统的总体设计框架,实现了多数据库中结构和内容的集成.  相似文献   

14.
针对刻面描述的检索方法的不足,引入领域本体,提出领域本体和刻面描述相结合的构件检索模型,并对所提出的构件检索模型中的构件检索过程进行研究。分析语义推理过程,提出基于本体和刻面描述相结合的检索算法。最后,构建一个第三方物流信息化构件检索的系统对所提出的构件检索机制的检索效率进行验证分析。验证结果表明,领域本体与刻面描述相结合可以提高构件检索的查全率和查准率。  相似文献   

15.
文本倾向性分析已成为当前自然语言处理领域的研究热点,其研究成果具有极高的应用价值。针对网络在线中文评论的特点,基于领域本体与情感词典对商品评论倾向性进行分析。其主要思想是首先构建面向商品论坛的领域本体;其次利用情感词典与上下文极性算法计算情感词极性;再次通过将本体与SBV算法相结合,实现评价对象和评价词的二元组抽取;最后完成句子的倾向性分析。实验结果表明,有效提高了句子级倾向性分析的准确率。  相似文献   

16.
基于本体的电力多数据源信息集成研究   总被引:1,自引:0,他引:1  
在电力领域,由于异构的多数据源带来的语义冲突问题越来越成为制约信息集成的难点。基于本体的概念,提出一个电力信息语义集成方案。从分布式的电力数据源中提取出局部本体,然后将局部本体整合为全局本体,从而消除数据库之间的信息冗余与冲突,能够实现多维查询、信息推理和本体演化等功能,从语义层面实现电力信息的无歧义共享与重用。  相似文献   

17.
基于Jena的城市交通领域本体推理和查询方法   总被引:1,自引:0,他引:1  
通过对城市交通信息进行抽象和分析,建立了城市交通领域本体库,并持久化存储到关系数据库。对比分析了基于Jena的语义推理机制及其所涉及的问题。构造交通信息的推理规则并在Jena平台下实现该领域基于语义的检索和路径查询功能,得出潜在的语义查询结果,给出了实现算法的描述和实验结果。为交通领域提高信息检索的查准率和查全率提供了一个有效的方法。  相似文献   

18.
快速相似性检索技术对于各种信息检索应用都具有很大的意义,其中基于语义哈希的快速相似性检索即是一个合理有效的检索方式,其检索模型能够在保证语义相关的基础上将高维空间中大量相关的文档数据,映射在低维空间中.虽然近年来许多关于语义哈希的研究都表现了不错的实验结果,但是都没有考虑到利用文档集合自身的信息来加强文档间的相关信息.为了有效利用文档自身信息,提出结合强化文档间邻接关系的马尔可夫迁移过程及使用保留局部信息的拉普拉斯映射方法的相似性检索方式.  相似文献   

19.
随着测试用例复用实践的深入和可复用测试用例库规模的不断扩大,对测试用例表示和高效检索已经成为目前研究的热点.基于本体描述的测试用例,结合基于本体的概念语义相似度计算思想,针对测试用例本体描述的特点,提出了一种基于用例复用行为的匹配度计算方法,并通过理论分析与实验检验证明,其提高了用例检索的查全率及用例复用的效率.  相似文献   

20.
组件获取得组件化软件开发中的一个关键性问题,本文首先讨论了组件匹配原理,并重点对其中一种组件匹配方法-基调匹配进行了研究,最后介绍了基调匹配在组件化分布式软件平台及其开发环境系统中的应用。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号