排序方式: 共有263条查询结果,搜索用时 171 毫秒
2.
[目的/意义]为了深入了解科研众筹平台中的项目情况,本文对科研众筹项目的基本特征、研究主题和不同类型科研众筹项目的属性对比进行研究。[研究设计/方法]首先对科研众筹的起源、价值和运作模式进行了梳理;随后爬取了科研众筹平台Experiment的项目信息,并对该平台中科研项目的发起者、背书者、项目记录、所属学科、资助情况等进行特征描述;基于LDA模型对科研众筹项目主题进一步细化,并对不同资金筹集和不同主题分类情况下的科研众筹项目的属性差异进行比较分析。[结论/发现]科研众筹主题主要集中在生物学和生态学两个领域,不同资金筹集达成情况的科研众筹项目在项目背书者数量、信息记录次数和讨论次数上具有显著差异;不同主题的科研众筹项目在其讨论次数上具有显著差异。同时,是否提供视频和是否参与资助挑战在不同资金筹集达成情况和不同主题的科研众筹项目上均具有显著差异。[创新/价值]深入分析了科研众筹平台中项目主题及属性对比情况,对科研众筹平台优化信息审核机制、社交机制和信息展示机制具有一定的参考价值。 相似文献
3.
6.
[目的/意义]拓展并深化数字囤积的理论研究,针对人文学者的数字囤积行为进行情境化探索。[方法/过程]采用半结构访谈、关键事件技术法和主题分析法研究人文学者的数字囤积行为。首先通过半结构化访谈采集19名人文学者数字囤积的关键事件,然后对访谈语料进行开放式编码,最终析出数字囤积相关的三大模块和7项子主题。[结果/结论]多维度揭示人文学者在学术信息实践中的数字囤积行为,包括对人文学者数字囤积行为的概念化解析、行为模式的动态演化及囤积者类型的识别、数字囤积的情境因素挖掘,在此基础上构建多元要素和多情境方向发展的数字囤积行为形成机理模型。最后,从认知科学、行为科学和设计科学的理论视角以及量化自我的实践视角出发,为进一步探索和优化人文学者在数字化学术环境下的学术信息管理行为提供理论指导和实践参考。 相似文献
7.
在移动互联网时代,移动阅读、碎片化阅读已经成为人们阅读的主流方式。在用户阅读过程中,提供摘要内容以提高阅读效率是解决信息过载问题的重要途径之一。科技研究论文文本长、内容广且包含领域知识,其摘要生成任务相比于新闻等普通文本更具有挑战性。本文提出了一种科技论文结构化摘要方法。首先,将科技论文划分为不同的语步;其次,分别对不同语步文本进行抽取式摘要,将文本多特征按权重融入TextRank算法的迭代计算过程中,引入MMR (maximal marginal relevance)算法对预选摘要集进行冗余处理;最后,使用依存句法分析对文本进行语义分析,进一步精简摘要,并组合成结构化摘要。研究结果表明,相比于基准模型,该方法在不同语步的相关性、多样性和可读性指标提升上具有一定差异;结合人工评价发现,该方法在显著提升摘要多样性的同时,一定程度上提升了摘要的相关性和可读性。 相似文献
8.
使用学习模型定量分析信息用户检索行为特征,对于扩展传统用户研究的方法、促进学科间融合具有重要意义。本文首先分析了信息用户检索决策中的强化学习特征,并选择了强化学习模型中的Bush-Mosteller模型和Borgers-Sarin模型对用户的检索决策行为形成过程进行模拟。模拟结果表明Borgers-Sarin模型成功捕捉了用户检索行为的形成过程,说明用户学习规则特征表现为将预期与反馈结果进行比较;模型的参数表明用户行为的黏滞性、惯性特征明显。 相似文献
9.
文献题录数据和引文数据在传统文献计量研究中的应用存在着诸多的障碍和壁垒。随着自然语言处理技术的发展和学术文献全文数据特别是结构化全文数据的丰富,这些障碍和壁垒在不断被攻克。通过综述学术文献全文计量分析的相关研究成果,本文发现:学术文献的计量研究正在经历巨大转变——从聚焦于学术文献的外部特征到开始关注内容特征,从关注学术文献的句法特征到重视语义特征乃至语用特征。以引文内容分析为代表的学术文献全文计量分析研究发展突出,其他全文信息的计量分析工作也崭露头角。目前,全文计量分析中各个研究方向的发展程度参差不齐,部分研究方向尚处于萌芽阶段,相关研究的研究方法和数据仍待继续加强或丰富。未来全文计量分析研究需要多个学科的广泛参与和相互合作,出版商与学者应积极参与到全文计量分析研究中来;需要对学术文献进行更加全面的认识,从而推动全文计量分析向客体细粒度化、视角多样化、指标语义化和评价结果全面化等方向不断迈进,并促进全文计量分析与学术服务和学术评价工作的有机结合,使文献计量学能够更好地为学术活动服务。图4。参考文献157。 相似文献
10.
考察特定领域文本中蕴含的细粒度知识实体的使用情况,对知识实体的评估和选择具有重要意义。学术文本中的细粒度知识实体通常具有多个类型、多种关联关系,挖掘知识实体的同质与异质关联关系,有助于深入了解特定领域知识实体的实际使用情况。目前相关研究大多针对学术文本中单一知识实体的抽取和评估,缺乏对知识实体间关系的关注,在一定程度上限制了基于实体抽取进行知识发现的能力。文章以自然语言处理领域为例,对学术论文全文中的细粒度知识实体关联数据进行挖掘,并通过可视化方式揭示关联数据中蕴含的信息。主要是选取全国计算语言学会议2009-2018年间收录的中文论文为原始语料,人工标注论文中使用的知识实体,并针对NLP特点将其细分为“指标实体”“工具实体”“资源实体”“方法实体”4种类型;结合关联规则挖掘算法Apriori和复杂网络分析软件构建知识实体关联网络,揭示该领域常用的知识实体,以及这些知识实体的使用相关性。 相似文献