首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 78 毫秒
1.
面对海量的在线学习资源,学习者往往面临“信息过载”和“信息迷航”等问题,帮助学习者高效准确地获取适合自己的学习资源来提升学习效果,已成为研究热点.针对现有方法存在的可解释性差、推荐效率和准确度不足等问题,提出了一种基于知识图谱和图嵌入的个性化学习资源推荐方法,它基于在线学习通用本体模型构建在线学习环境知识图谱,利用图嵌入算法对知识图谱进行训练,以优化学习资源推荐中的图计算效率.基于学习者的学习风格特征进行聚类来优化学习者的资源兴趣度,以获得排序后的学习资源推荐结果.实验结果表明,相对于现有方法,所提方法能在大规模图数据场景下显著提升计算效率和个性化学习资源推荐的准确度.  相似文献   

2.
赵恒  白晓  刘沁源 《现代计算机》2014,(1):59-61,66
随着Internet技术的不断发展,信息孤岛、信息过载和资源迷航问题严重影响用户高效率地发现、利用互联网资源。以为学生用户推荐优秀的学习资源为出发点,利用微博技术构建一个为学生用户推荐学习资源的资源推荐平台。该平台以空间向量模型为表示模型,通过Heritrix、SCWS分词器、基于内容且带有协同过滤的混合推荐算法等多种技术来收集、获取、筛选、推介学习资源数据。  相似文献   

3.
近年来越来越多的学校广泛使用网络在线授课,然而互联网中海量的学习资源令学习者难以抉择。因此,研究在线学习资源推荐并为学习者进行个性化推荐非常重要,这可以帮助学习者快速获取其所需的优质学习资源。针对在线学习资源推荐的研究现状,从以下5个方面进行分析总结。首先,总结了目前国内外在线教育平台在学习资源推荐方面的工作;其次,分析和探讨了以知识点习题、学习路径、学习视频和学习课程为学习资源推荐目标的4种算法;接着,分别从学习者和学习资源的角度出发,以具体的算法为例,详述了常用的基于学习者画像、基于学习者行为和基于学习资源本体的3种学习资源推荐算法;此外,总结了公开的在线学习资源数据集;最后,分析了学习资源推荐系统目前存在的问题和未来的发展方向。  相似文献   

4.
为解决在线学习中出现的“认知过载”和“学习迷航”等问题,针对用户的个性化学习需求,同时考虑知识点之间的逻辑关系,本文将知识图谱融入学习资源推荐模型.首先构建了学科知识图谱、学习资源模型和用户数学模型,综合考虑用户的兴趣偏好、用户知识库与学习资源所涵盖知识点的关联度以建立多目标优化模型.然后使用自适应多目标粒子群算法对模型求解,基于个体拥挤距离降序排列缩减外部种群规模,获得了分布特征良好的两目标Pareto前沿,输出推荐资源序列.实验时通过与标准多目标粒子群算法对比并使用HV、IGD指标对模型进行评价,验证了其多样性和稳定性,证明了算法良好的全局寻优和收敛性能.采用五折交叉验证了算法良好的推荐效用.  相似文献   

5.
干部在线学习过程中,利用个性化推荐机制能够使参学干部从海量的学习资源中快速、精准地找到满足需求的学习资源,但是平台新注册的学员和最新上传的学习资源由于缺少大量的历史行为数据而面临推荐系统冷启动问题.为了解决该问题,使参学干部在碎片的学习时间内学习更有成效,收获更有价值,在阐述了干部在线学习中冷启动问题的形成原因和研究意义的基础上,提出了非个性化和半个性化推荐、提取参学干部注册信息、快速试探并实时反馈、抓取学习资源特征信息和专家多维度特征标注等冷启动解决方案.  相似文献   

6.
刘芳  田枫  李欣  林琳 《智能系统学报》2021,16(6):1117-1125
在线教育存在“信息迷航”问题,而传统的信息推荐方法往往忽视教育的主体—学习者的特征。本文依据教育教学理论,根据在线教育平台中的学习者相关数据,研究构建了适用于在线学习资源个性化推荐的学习者模型。以协同过滤推荐方法为切入点,融合学习者模型中的静态特征和动态特征对协同过滤方法进行改进,建立融入学习者模型的在线学习资源协同过滤推荐方法。以2020年3~7月时间段的东北石油大学“C程序设计”课程学生的真实学习数据和行为数据为数据集,对本文提出的方法进行验证和对比,最后证明本文提出的方法在性能上均优于对比方法。  相似文献   

7.
针对在线学习过程中出现的知识过载及传统推荐算法中存在的数据稀疏和冷启动问题,提出了一种基于多层感知机(MLP)的改进型深度神经网络学习资源推荐算法。该算法利用多层感知机对非线性数据处理的优势,将学习者特征和学习资源特征进行向量相乘的预测方式转换为输入多层感知机的方式,改进了DN-CBR神经网络推荐模型。为验证模型的有效性,以爱课程在线学习平台数据为样本构建数据集,通过对比实验表明,在该数据集上,改进后模型相较于DN-CBR模型在归一化折损累积增益和命中率指标上分别提升了1.2%和3%,有效地提高了模型的推荐性能。  相似文献   

8.
个性化服务是构建智慧学习环境的内在要求和建设要点.为学习环境中的主体(学习者)推送个性化学习资源可以提高学习资源的利用概率,解决在线学习容易产生的迷航问题.通过本体知识库的统一性语义建立学习者和学习资源内部结构特征,设计出一个有效计算两者相关性的推荐算法.算法中引入时间衰减函数来描述学习者学习时的时序特征,导入计算学习者认知水平与学习资源难度的匹配算子以体现学习的循序渐进原则.实验结果表明:所构建的时间函数和匹配算子达到了预期目标,更好地提升了所推荐学习资源的质量和适应性,且算法的时间复杂度能满足实时计算要求.  相似文献   

9.
近年来,在线学习得到了大规模普及,互联网上已发布了海量的慕课学习资源.针对广大学习者进行在线慕课学习时面临的"信息迷航"和"信息过载"等问题,以混合推荐算法为基础,通过多角度挖掘用户的个性化信息,设计并实现了一个面向个性化学习的慕课资源推荐系统,以此为广大学习者提供自主学习的辅助支持.该系统能充分挖掘学习者的显式和隐式偏好,为其推荐满意的慕课资源,具有良好的应用价值.  相似文献   

10.
移动互联网的发展带来了大量的应用,提供个性化服务和个性化推荐是解决用户“应用迷航”的有效手段,针对与某电信运营商“游戏”应用平台类似的应用商店领域,提出了一种融合的个性化推荐解决方案.该方案通过对用户行为日志的分析生成用户的兴趣偏好模型,同时引入时间因子反映用户兴趣的漂移,将基于用户偏好分析的推荐方法与基于物品的协同过滤算法相结合形成了融合的个性化推荐模型.实验对比结果表明,该模型避免了两算法之不足,发挥了两算法的优势,有效地提高了该应用平台的综合推荐性能.  相似文献   

11.
We present an off-line variant of the mistake-bound model of learning. This is an intermediate model between the on-line learning model (Littlestone, 1988, Littlestone, 1989) and the self-directed learning model (Goldman, Rivest & Schapire, 1993, Goldman & Sloan, 1994). Just like in the other two models, a learner in the off-line model has to learn an unknown concept from a sequence of elements of the instance space on which it makes guess and test trials. In all models, the aim of the learner is to make as few mistakes as possible. The difference between the models is that, while in the on-line model only the set of possible elements is known, in the off-line model the sequence of elements (i.e., the identity of the elements as well as the order in which they are to be presented) is known to the learner in advance. On the other hand, the learner is weaker than the self-directed learner, which is allowed to choose adaptively the sequence of elements presented to him.We study some of the fundamental properties of the off-line model. In particular, we compare the number of mistakes made by the off-line learner on certain concept classes to those made by the on-line and self-directed learners. We give bounds on the possible gaps between the various models and show examples that prove that our bounds are tight.Another contribution of this paper is the extension of the combinatorial tool of labeled trees to a unified approach that captures the various mistake bound measures of all the models discussed. We believe that this tool will prove to be useful for further study of models of incremental learning.  相似文献   

12.
小样本学习是视觉识别中的一个受关注的领域,旨在通过少量的数据来学习新的视觉概念。为了解决小样本问题,一些元学习方法提出从大量辅助任务中学习可迁移的知识并将其应用于目标任务上。为了更好地对知识进行迁移,提出了一种基于记忆的迁移学习方法。提出一种权重分解策略,将部分权重分解为冻结权重与可学习权重,在迁移学习中通过固定冻结权重,仅更新可学习权重的方式来减少模型需要学习的参数。通过一个额外的记忆模块来存储之前任务的经验,在学习新任务时,这些经验被用来初始化模型的参数状态,以此更好地进行迁移学习。通过在miniImageNet、tieredImageNet以及CUB数据集上的实验结果表明,相对于其他先进的方法,该方法在小样本分类任务上取得了具有竞争力甚至是更好的表现。  相似文献   

13.
李延超  肖甫  陈志  李博 《软件学报》2020,31(12):3808-3822
主动学习从大量无标记样本中挑选样本交给专家标记.现有的批抽样主动学习算法主要受3个限制:(1)一些主动学习方法基于单选择准则或对数据、模型设定假设,这类方法很难找到既有不确定性又有代表性的未标记样本;(2)现有批抽样主动学习方法的性能很大程度上依赖于样本之间相似性度量的准确性,例如预定义函数或差异性衡量;(3)噪声标签问题一直影响批抽样主动学习算法的性能.提出一种基于深度学习批抽样的主动学习方法.通过深度神经网络生成标记和未标记样本的学习表示和采用标签循环模式,使得标记样本与未标记样本建立联系,再回到相同标签的标记样本.这样同时考虑了样本的不确定性和代表性,并且算法对噪声标签具有鲁棒性.在提出的批抽样主动学习方法中,算法使用的子模块函数确保选择的样本集合具有多样性.此外,自适应参数的优化,使得主动学习算法可以自动平衡样本的不确定性和代表性.将提出的主动学习方法应用到半监督分类和半监督聚类中,实验结果表明,所提出的主动学习方法的性能优于现有的一些先进的方法.  相似文献   

14.
基于偏向信息学习的双层强化学习算法   总被引:1,自引:0,他引:1  
传统的强化学习存在收敛速度慢等问题,结合先验知识预置某些偏向可以加快学习速度.但是当先验知识不正确时又可能导致学习过程不收敛.对此,提出基于偏向信息学习的双层强化学习模型.该模型将强化学习过程和偏向信息学习过程结合起来:偏向信息指导强化学习的行为选择策略,同时强化学习指导偏向信息学习过程.该方法在有效利用先验知识的同时能够消除不正确先验知识的影响.针对迷宫问题的实验表明,该方法能够稳定收敛到最优策略;并且能够有效利用先验知识提高学习效率,加快学习过程的收敛.  相似文献   

15.
度量学习通过更真实的刻画样本之间的距离,来提高分类和聚类的精度。GMML(Geometric Mean Metric Learning)在学习度量矩阵[A]时,使得在该度量下同类点之间的距离尽可能小,不同类点之间的距离尽可能大。GMML用来学习的训练样本均为目标类数据,而对于现实存在的为数众多的同领域非目标类数据,即Universum数据并未加以利用,不免造成信息的浪费,针对此,提出一种新的度量学习算法--融入Universum学习的GMML(U-GMML)。U-GMML期望得到一个新的度量矩阵[A],使得同类点之间的距离尽可能小,不同类点之间的距离尽可能大,且Universum数据与目标类数据的距离尽可能大,从而使得所学习的度量矩阵[A]更有利于分类。真实数据集上的实验结果验证了该算法的有效性。  相似文献   

16.
Many data mining applications have a large amount of data but labeling data is usually difficult, expensive, or time consuming, as it requires human experts for annotation. Semi-supervised learning addresses this problem by using unlabeled data together with labeled data in the training process. Co-Training is a popular semi-supervised learning algorithm that has the assumptions that each example is represented by multiple sets of features (views) and these views are sufficient for learning and independent given the class. However, these assumptions are strong and are not satisfied in many real-world domains. In this paper, a single-view variant of Co-Training, called Co-Training by Committee (CoBC) is proposed, in which an ensemble of diverse classifiers is used instead of redundant and independent views. We introduce a new labeling confidence measure for unlabeled examples based on estimating the local accuracy of the committee members on its neighborhood. Then we introduce two new learning algorithms, QBC-then-CoBC and QBC-with-CoBC, which combine the merits of committee-based semi-supervised learning and active learning. The random subspace method is applied on both C4.5 decision trees and 1-nearest neighbor classifiers to construct the diverse ensembles used for semi-supervised learning and active learning. Experiments show that these two combinations can outperform other non committee-based ones.  相似文献   

17.
International Journal of Control, Automation and Systems - The iterative learning control (ILC) is attractive for its simple structure, easy implementation. So the ILC is applied to various fields....  相似文献   

18.
19.
Relevance ranking has been a popular and interesting topic over the years, which has a large variety of applications. A number of machine learning techniques were successfully applied as the learning algorithms for relevance ranking, including neural network, regularized least square, support vector machine and so on. From machine learning point of view, extreme learning machine actually provides a unified framework where the aforementioned algorithms can be considered as special cases. In this paper, pointwise ELM and pairwise ELM are proposed to learn relevance ranking problems for the first time. In particular, ELM type of linear random node is newly proposed together with kernel version of ELM to be linear as well. The famous publicly available dataset collection LETOR is tested to compare ELM-based ranking algorithms with state-of-art linear ranking algorithms.  相似文献   

20.
深度学习中的无监督学习方法综述   总被引:1,自引:0,他引:1  
从2006年开始,深度神经网络在图像/语音识别、自动驾驶等大数据处理和人工智能领域中都取得了巨大成功,其中无监督学习方法作为深度神经网络中的预训练方法为深度神经网络的成功起到了非常重要的作用. 为此,对深度学习中的无监督学习方法进行了介绍和分析,主要总结了两类常用的无监督学习方法,即确定型的自编码方法和基于概率型受限玻尔兹曼机的对比散度等学习方法,并介绍了这两类方法在深度学习系统中的应用,最后对无监督学习面临的问题和挑战进行了总结和展望.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号