全文获取类型
收费全文 | 2109篇 |
免费 | 26篇 |
国内免费 | 310篇 |
学科分类
文化教育 | 2445篇 |
出版年
2024年 | 11篇 |
2023年 | 46篇 |
2022年 | 28篇 |
2021年 | 37篇 |
2020年 | 32篇 |
2019年 | 32篇 |
2018年 | 34篇 |
2017年 | 57篇 |
2016年 | 53篇 |
2015年 | 78篇 |
2014年 | 129篇 |
2013年 | 100篇 |
2012年 | 201篇 |
2011年 | 188篇 |
2010年 | 157篇 |
2009年 | 167篇 |
2008年 | 136篇 |
2007年 | 151篇 |
2006年 | 147篇 |
2005年 | 141篇 |
2004年 | 160篇 |
2003年 | 119篇 |
2002年 | 122篇 |
2001年 | 74篇 |
2000年 | 23篇 |
1999年 | 8篇 |
1998年 | 4篇 |
1997年 | 1篇 |
1996年 | 2篇 |
1995年 | 2篇 |
1993年 | 1篇 |
1992年 | 2篇 |
1991年 | 1篇 |
1989年 | 1篇 |
排序方式: 共有2445条查询结果,搜索用时 15 毫秒
11.
在移动互联网时代,移动阅读、碎片化阅读已经成为人们阅读的主流方式。在用户阅读过程中,提供摘要内容以提高阅读效率是解决信息过载问题的重要途径之一。科技研究论文文本长、内容广且包含领域知识,其摘要生成任务相比于新闻等普通文本更具有挑战性。本文提出了一种科技论文结构化摘要方法。首先,将科技论文划分为不同的语步;其次,分别对不同语步文本进行抽取式摘要,将文本多特征按权重融入TextRank算法的迭代计算过程中,引入MMR (maximal marginal relevance)算法对预选摘要集进行冗余处理;最后,使用依存句法分析对文本进行语义分析,进一步精简摘要,并组合成结构化摘要。研究结果表明,相比于基准模型,该方法在不同语步的相关性、多样性和可读性指标提升上具有一定差异;结合人工评价发现,该方法在显著提升摘要多样性的同时,一定程度上提升了摘要的相关性和可读性。 相似文献
12.
近年来,大量失真健康信息以微信公众号文章的方式在社交平台上广为传播,严重影响了用户对健康知识的获取和利用健康信息做医疗决策的效果。为了抑制失真健康信息的传播,有必要对失真健康信息进行自动化的识别与检测。本文以科普中国、丁香医生等公众号发布的健康类文章和经过辟谣的健康类文章为样本,通过分词、去停用词、语法特征提取和文本分类等步骤对失真健康信息进行识别,并通过分类准确率、精确率、召回率、训练时间等性能指标选出效果最佳的分类器。另外,针对文本分类中“一词多义”和“多词一义”的问题,本文通过LDA (latent Dirichlet allocation)主题分析提取文本的语义特征,进而提出一种“语法+语义”的特征提取方法,经过实验验证,各性能指标比基于语义的特征提取方法以及以往相关模型都有了一定的提升。本文为微信公众号文章中失真健康信息的识别提出了一种新的方法和工具,有利于对失真健康信息开展进一步的监测和治理。 相似文献
13.
古代科技文献具有丰富且高度关联的语义,然而不同收藏机构整理和发布的数字古籍资源却是异构的,而运用语义网的原理和技术能够解决古代科技文献数字资源分布异构、互操作、跨语言等问题。以农学古籍为例,提出基于自编《中国古代科技文献总目(农学卷)》的书目本体关联数据的语义出版解决方案:在该书目基础上,半自动抽取出1285种农学古籍的元数据,识别出粗、中、细3种粒度的知识单元;再通过逻辑推理、模式匹配等方式建立实体关系和属性关系两种内部关联,调用开放关联数据的API建立与网络本体和知识组织系统的外部关联;经由上述步骤开发农学古籍知识库,通过3种模式服务用户。农学古籍的语义出版虽然具有广阔的应用前景,但也不可忽视其在基础层、资源层所面临的巨大挑战。 相似文献
14.
【目的】“一带一路”是中国提出的重要国际合作方案,充分了解国际受众的态度对深入推进“一带一路”至关重要。【方法】文章基于计算传播和网络议程研究框架,对推特上有关“一带一路”话题的讨论进行主题建模和情感分析,以探究公众对议题的讨论呈何种分布及情绪占比。通过主题建模、情绪计算和语义网络分析将讨论的内容进行可视化呈现。【结果】网民整体的关注点和媒体议程相关性高,整体呈现的正面情绪占比最大,负面情绪随新冠疫情防控政策进程逐渐衰退。【结论】在开放的话语空间中,整体情绪呈积极状态,但和媒体议程相关度高。在未来对外传播过程中要把握核心要义,优化传播方式,讲好中国故事。 相似文献
15.
[目的/意义]对国外图书馆开放元数据服务的发展现状和特点进行调研,以期为国内图书馆开展开放元数据服务的研究提供借鉴。[研究设计/方法]以国外典型图书馆的开放元数据服务作为研究对象,详细调研其发展情况,总结开放元数据服务的不同发展阶段,并从服务政策、元数据资源、许可协议、服务方式和开发利用五个方面归纳开放元数据服务的特点。[结论/发现]国外图书馆的开放元数据服务具有先行的服务政策,海量多样的元数据资源,规范的许可协议,灵活创新的服务方式,并且支持元数据的开发利用。[创新/价值]目前国内对图书馆开放元数据服务的研究较少,本文选择了若干国外典型的图书馆开放元数据服务,详细调研其发展现状并归纳总结其特点。 相似文献
16.
阐述了服装图片元数据规范的设计目的、设计方法,并详细解释了元数据规范中14个核心元素、7个服装图片的专门核心元素、8个个别元素具体的定义属性、与国际通用元数据规范的映射关系、元素修饰词、著录规则等,并且提供了元数据应用范例. 相似文献
17.
“中”这个词在河南方言里是个核心词,它的使用频率极高,河南人时时刻刻都在用它,犹如“贼”是东北话的标志一样,它显然成为了河南方言的标志。与普通话里的“中”相比,河南方言里“中”意义比较复杂,而且语法功能和语用功能也非常特殊。本文旨在对河南方言里“中”的特殊用法做简单的分析。 相似文献
18.
为了提高文本挖掘的深度和精度,研究并提出了一种基于领域本体的语义文本挖掘模型.该模型利用语义角色标注进行语义分析,获取概念和概念间的语义关系,提高文本表示的准确度;针对传统的知识挖掘算法不能有效挖掘语义元数据库,设计了一种基于语义的模式挖掘算法挖掘文本深层的语义模式.实验结果表明,该模型能够挖掘文本数据库中的深层语义知识,获取的模式具有很强的潜在应用价值,设计的算法具有很强的适应性和可扩展性. 相似文献
19.
计算机自动语义分析是当前制约自然语言信息检索、信息抽取与机器翻译等应用技术发展的一个瓶颈问题.语义角色标注是语义分析的一种主要实现方式,而目前语义角色的自动标注主要采用基于统计的方法,由于训练数据的规模有限、语义角色类型多,面临严重的数据稀疏问题,处理结果一致性差.本文则采取基于规则的方法,选择汉语框架语义知识库(CFN)所提供的框架和框架元素作为语义标注体系,利用CFN的语义标注句子库,根据短语类型、句法功能以及短语内部构成和外部语境等其他句法语义特征分析框架元素的实现规律,构建语义标注规则,经测试取得了令人满意的结果,为解决语义分析问题探索了一条可行的路线. 相似文献
20.
通常用于评论性文本极性挖掘的方法是采用有监督的学习算法完成的,但有监督的学习算法需要大量人工标注的训练集,而且其在处理文本集时还会面临维数灾难、稀疏向量、高时空复杂度、低召回率和精确率等问题而无法用于海量的文本极性分类任务。经典的K-means均值聚类算法是聚类分析中使用最为广泛的算法之一,其具有诸多的优良特性和不足。针对上述情况,本文将语义引入经典K-means均值聚类算法中,构造了专门针对中文评论文本极性判断的极性词语义词典,提出了一种基于语义准则函数的K-means均值聚类算法。这项研究是运用基于语义的聚类方法对汉语主观性文本处理的一次探索。实验结果显示总平均召回率达到了80.70%,总平均精确率达到了67.75%,说明该算法是可行和有效的。 相似文献