首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 250 毫秒
1.
《计算机科学与探索》2023,(6):1417-1426
针对多任务推荐中存在负迁移的问题,提出一种双感知门控交互的多任务推荐模型(DPGI-MTRM)。首先,在多任务共享网络和专有网络中,创新性地设计了双感知特征提取模块(称为双感知专家层),其作用是对输入特征得到元素级和向量级的双感知特征表示。其次,在门控网络的基础上提出了任务交互层,对经过门控网络输出的特征进行交互计算提取任务之间的高级语义相关性,同时采用残差方式加上原始输入门控的特征向量减少任务交互可能带来的噪音干扰。最后,通过堆叠双感知专家层、门控交互层,连接特定任务的神经网络输出层得到双感知门控交互的多任务推荐模型。此外,在模型训练时使用了梯度归一化的多目标优化方法,使该模型更好地收敛。在Census-income、Synthetic Data和Ali-CCP数据集上进行实验,采用AUC和MSE指标进行评估,实验结果表明,提出的模型表现优于其他基准模型,达到较为先进的性能。  相似文献   

2.
一种面向多源领域的实例迁移学习   总被引:1,自引:0,他引:1  
在迁移学习最大的特点就是利用相关领域的知识来帮助完成目标领域中的学习任务,它能够有效地在相似的领域或任务之间进行信息的共享和迁移,使传统的从零开始的学习变成可积累的学习,具有成本低、效率高等优点.针对源领域数据和目标领域数据分布类似的情况,提出一种基于多源动态TrAdaBoost的实例迁移学习方法.该方法考虑多个源领域知识,使得目标任务的学习可以充分利用所有源领域信息,每次训练候选分类器时,所有源领域样本都参与学习,可以获得有利于目标任务学习的有用信息,从而避免负迁移的产生.理论分析验证了所提算法较单源迁移的优势,以及加入动态因子改善了源权重收敛导致的权重熵由源样本转移到目标样本的问题.实验结果验证了此算法在提高识别率方面的优势.  相似文献   

3.
事件抽取是项重要的信息抽取任务,旨在抽取文本中的事件信息。目前基于多任务学习的事件联合抽取方法大多基于硬参数共享,此类方法往往会导致跷跷板现象的出现,即一项任务的性能往往通过损害另一项任务的性能来提高。为了解决这一问题,提出了一种基于软参数共享的事件联合抽取方法,该方法明确地分离了共享参数和任务特定参数,并通过双层门控网络增强模型提取和筛选语义知识的能力,使模型能同时为两个任务学习到合适的特征表示,实现了更高效的信息共享和联合表示学习。在DuEE1.0公共数据集上进行了实验,使用准确率、召回率、F1值作为评价指标,并通过对比实验和消融实验验证了方法的有效性。对比基于硬参数共享的联合抽取模型事件识别任务F1值提高了2.0%,论元角色分类任务F1值提高了0.9%,有效地缓解了跷跷板现象的出现,验证了方法的有效性。  相似文献   

4.
层级多标签文本分类相比普通的多标签文本分类更具有挑战性,因为文本的多个标签组织成树状的层次结构。当前方法使用相同的模型结构来预测不同层级的标签,忽略了它们之间的差异性和多样性。并且没有充分地建模层级依赖关系,造成各层级标签尤其是下层长尾标签的预测性能差,且会导致标签不一致性问题。为了解决以上问题,将多任务学习架构引入,提出了MSML-BERT模型。该模型将标签结构中每一层的标签分类网络视为一个学习任务,通过任务间知识的共享和传递,提高各层级任务的性能。基于此,设计了多尺度特征抽取模块,用于捕捉不同尺度和粒度的特征以形成不同层级需要的各种知识。进一步,设计了多层级信息传播模块,用于充分建模层级依赖,在不同层级之间传递知识,以帮助下层任务。在该模块中,设计了层次化门控机制,为了过滤不同层级任务之间的知识流动。在RCV1-V2、NYT和WOS数据集上进行了充分的实验,结果显示该模型的总体表现尤其是在下层长尾标签上的表现超过了其他主流模型,并且能维持较低的标签不一致比率。  相似文献   

5.
深度学习的成功依赖于海量的训练数据,然而获取大规模有标注的数据并不容易,成本昂贵且耗时;同时由于数据在不同场景下的分布有所不同,利用某一特定场景的数据集所训练出的模型往往在其他场景表现不佳。迁移学习作为一种将知识从一个领域转移到另一个领域的方法,可以解决上述问题。深度迁移学习则是在深度学习框架下实现迁移学习的方法。提出一种基于伪标签的深度迁移学习算法,该算法以ResNet-50为骨干,通过一种兼顾置信度和类别平衡的样本筛选机制为目标域样本提供伪标签,然后进行自训练,最终实现对目标域样本准确分类,在Office-31数据集上的三组迁移学习任务中,平均准确率较传统算法提升5.0%。该算法没有引入任何额外网络参数,且注重源域数据隐私,可移植性强,具有一定的实用价值。  相似文献   

6.
当情感分类模型依次学习多个领域的情感分类任务时,从新任务中学到的参数会直接修改模型原有参数,由于缺少对原有参数的保护机制,降低了模型在旧任务上的分类准确率。为缓解灾难遗忘现象对模型性能的影响,并增加任务间的知识迁移,提出一种用于中文情感分类的基于知识架构的持续学习方法。在Transformer编码层中,采用任务自注意力机制为每个任务单独设置注意力变换矩阵,通过区分任务特有的注意力参数实现知识保留。在TextCNN的全连接层中,利用任务门控注意力(HAT)机制控制每个神经元的开闭,为每个任务训练特定的网络结构,仅激活对任务重要的神经元加强知识挖掘,提升分类效率与准确率。在JD21中文数据集上的实验结果表明,该方法的Last ACC和负类F1值相比于基于HAT的持续学习方法分别提升了0.37和0.09个百分点,具有更高的分类准确率,并且有效缓解了灾难遗忘现象。  相似文献   

7.
“意图识别”与“槽位填充”是智能人机交互中的两个核心任务,受到学术界和工业界的广泛关注。目前业界前沿主流的方法,在一些学术公开数据集上已取得了不错的效果。不过这些方法大多依赖于丰富的标注数据集来完成训练,而数据集需要经过人工采集、标注等流程构造,且需满足其分布的均匀性。然而,真实业务场景下的数据却很难达到以上标准,往往面临小样本学习困难的难题,大多主流方法在小样本学习任务上的表现远不如其在大样本学习上的效果。针对此业界难点,该文提出一种基于半监督学习与迁移学习的“意图识别”与“槽位填充”的串联方法。该方法根据“意图识别”和“槽位填充”的各自任务特性,分别设计了针对性更强的小样本解决思路,即通过半监督学习的思想,在不需引入大量标注数据的情况下,利用无标签数据丰富、构造训练样本集,提高小样本意图识别的准确性;以及通过迁移学习的思想,将从大样本数据中学习到的先验知识迁移到小样本数据模型中,利用大样本数据与小样本数据间的公共知识,提高小样本槽位填充的精准度。该文所提出的方法通过实验对比被证实有效,且在2021年中国计算机学会大数据与计算智能大赛(CCF-BDCI)组委会与中国中文信息学会(CI...  相似文献   

8.
针对深度学习医学影像分割所需的标注数据获取困难且数量少的问题,提出一种基于多任务学习的肝脏肿瘤自动分割方法.提出该方法的主要动机一方面是想要缓解分割数据样本少的问题,另一方面是想要利用不同任务之间有用的信息来提升整体的学习效果.该方法所采用数据集一部分是逐像素的分割数据集,一部分是形式为bounding-box的目标检测数据集.该方法首先通过共享主网络挖掘不同任务之间的相关性,提取通用的特征,然后两个子任务分支通过注意力机制从共享主网络上提取对自身有用的特征,最后两个子网络结合自身的特异性特征与主网络上提取的通用特征来分别完成检测与分割任务.实验结果表明,在一定的样本比例下,该方法相较于U-Net的Dice系数提升了6.67个百分点,表明该方法能够有效利用额外的目标检测数据来提高分割任务的精度.  相似文献   

9.
杨沛  谭琦  丁月华 《计算机科学》2009,36(8):212-214
迁移学习能够有效地在相似任务之间进行信息的共享和迁移.之前针对多任务回归的迁移学习研究大多集中在线性系统上.针对非线性回归问题,提出了一种新的多任务回归模型--HiRBF.HiRBF基于层次贝叶斯模型,采用RBF神经网络进行回归学习,假设各个任务的输出层参数服从某种共同的先验分布.根据各个任务是否共享隐藏层,在构造HiRBF模型时有两种可选方案.在实验部分,将两种方案进行了对比,也将HiRBF与两种非迁移学习算法进行了对比,实验结果表明,HiRBF的预测性能大大优于其它两个算法.  相似文献   

10.
基于群体智能“隐并行性”实现多任务优化已取得一系列研究成果,但任务间频繁的垂直信息传递导致种群异质性过度增加,进而产生信息负迁移消极影响,这也是目前多任务优化领域尚未完全解决的难题之一.针对此问题,首先将粒子群算法(PSO)与多种群演化信息共享机制相结合,然后引入标杆管理思想实现多层级信息迁移及智能涌现,最后通过计算种群多样性指数有效控制信息迁移频率,提出多级信息迁移多任务优化PSO算法(multi-level information transfer multi-task PSO, MITMPSO).仿真实验表明,通过设置合理的信息迁移阈值,MITMPSO能在多项式时间内显著提高多任务高维函数优化、多任务多约束函数优化以及多任务二元离散优化问题的求解质量,加快各优化问题的收敛速度.  相似文献   

11.
何克磊  史颖欢  高阳 《软件学报》2020,31(5):1573-1584
传统的深度多任务网络通常在不同任务之间共享网络的大部分层(即特征表示).由于这样做会忽视不同任务各自的特殊性,所以往往会制约它们适应数据的能力.提出一种层级混合的多任务全卷积网络HFFCN,以解决CT图像中的前列腺分割问题.特别地,使用一个多任务框架来解决这个问题,这个框架包括:1)一个分割前列腺的主任务;和2)一个回归前列腺边界的辅助任务.在这里,第二个任务主要是用来精确地描述在CT图像中模糊的前列腺边界.因此,提出的HFFCN架构是一个双分支的结构,包含一个编码主干和两个解码分支.不同于传统的多任务网络,提出了一个新颖的信息共享模块,用以在两个解码分支之间共享信息.这使得HFFCN可以:1)学习任务的通用层级信息;2)同时保留一些不同任务各自的特征表示.在一个包含有313个病人的313张计划阶段图片的CT图像数据集上做了详细的实验,实验结果证明了所提的HFFCN网络可以超越现有其他先进的分割方法,或者是传统的多任务学习模型.  相似文献   

12.
生物医学因果关系抽取是BioCreative社区提出的一项评测任务,旨在挖掘生物医学实体间丰富的语义关系,并用生物医学表征语言(biological expression language, BEL)来表示。与传统的实体关系抽取不同,该任务不仅包含实体间因果关系的抽取,还包含实体功能的识别。此前已经提出了一些该任务的解决方法,但均未考虑这两个子任务间的关联性。该文基于多任务的思想,提出一种二元关系抽取和一元功能识别共同决策的联合学习模式。首先两个任务共享底层向量表示,然后利用长短期记忆(long short-term memory, LSTM)网络和门控机制学习两个任务之间的交互表示,最后分别进行分类预测。实验结果表明,该方法能够融合两个子任务的信息,在2015 BC-V测试集上获得了45.3%的F值。  相似文献   

13.
在许多语音信号处理的实际应用中,都要求系统能够低延迟地实时处理多个任务,并且对噪声要有很强的鲁棒性。针对上述问题,提出了一种语音增强和语音活动检测(Voice Activity Detection,VAD)的多任务深度学习模型。该模型通过引入长短时记忆(Long Short-Term Memory,LSTM)网络,构建了一个适合于实时在线处理的因果系统。基于语音增强和VAD的强相关性,该模型以硬参数共享的方式连接了两个任务的输出层,不仅减少了计算量,还通过多任务学习提高了任务的泛化能力。实验结果表明,相较串行处理两个任务的基线模型,多任务模型在语音增强结果非常相近、VAD结果更优的情况下,其速度快了44.2%,这对于深度学习模型的实际应用和部署将具有重要的意义。  相似文献   

14.
情感分类与对话行为识别任务常被用在对话系统中联合建模,这种联合建模的方法能够挖掘出对话文本的跨任务隐藏交互信息,提高情感分类与对话行为识别的准确性。然而,在两个任务联合建模时,对话文本有上下文信息和跨任务交互信息,对这两种信息与模型预测准确度之间的关系进行研究,需要将这两种信息协同建模,在过去的研究中对这两种信息的利用并不充分,为解决该问题提出多任务图注意力网络(multi-task graph attention network,MGAT),并且以其为核心模块搭建了多任务协同图注意力网络(multi-task synergic graph attention network,MSGAT),该模型将上下文信息与跨任务信息联合建模,同时完成情感分类与对话行为识别任务。利用两个公开数据集实验,得到了良好的效果,并且对联合模型与预训练模型组合进行了研究。  相似文献   

15.
Industrial internet platform is regarded as an emerging infrastructure to increase the manufacturing efficiency via sharing resources located in multiple sites. Manufacturing cloud service allocation (MCSA) aims to assign available services to the interconnected subtasks of a complicated task such that some performance indices are optimized. Current studies on MCSA are single-task-oriented and fail to exploit the shared task-solving experiences to jointly optimize a group of tasks with enhanced solution quality and search speed. This work considers the joint optimization of multiple MCSA problems in a parallel fashion via cross-task transfer learning mechanism, and two novel transfer learning strategies are embedded into the framework of bee colony algorithm to make the best use of cross-task helpful knowledge when resolving multi-task MCSA. The first one is to design an individual-dependent transfer learning mechanism to govern the probability of whether a bee to perform intra-task self-evolution or cross-task knowledge transfer, which adaptively regulates the search behavior of each bee according to its state. The second one is to select the potential bees from foreign tasks for knowledge exchange with the aid of anomaly detection mechanism. The proposed optimizer is extensively examined on different scales of MCSA instances in multi-task scenario. Experimental results confirm the performance advantage of our proposal in comparison with other state-of-the-art peers.  相似文献   

16.
模型无关的元学习(MAML)是一种多任务的元学习算法,能使用不同的模型,并快速地在不同任务之间进行适应,但MAML在训练速度与准确率上还亟待提高.从高斯随机过程的角度出发对MAML的原理进行分析,提出一种基于贝叶斯权函数的模型无关元学习(BW-MAML)算法,该权函数利用贝叶斯分析设计并用于损失的加权.训练过程中,BW...  相似文献   

17.
目前,只有少量面向多任务学习的序数回归方法。这些方法假设不同的任务具有相同的权重,对整体模型具有相同的贡献。然而,在真实应用中,不同任务对于整体模型的贡献往往是不同的。为此,提出了一种基于任务权重自动优化的多任务序数回归算法。首先,提出了基于支持向量机的多任务序数回归模型,通过分类器参数共享,实现不同任务之间的信息迁移;其次,考虑到不同任务对整体模型可能具有不同贡献,赋予每个任务一个权重,这些权重将在学习过程中自动优化求解;最后,采用了启发式框架,交替地建立多任务序数回归模型和优化任务权重。实验结果表明,提出方法相比于其他多任务序数回归方法,平均0-1误差降低了3.8%~12.3%,平均绝对误差降低了4.1%~11%。考虑了每个任务的不同权重,通过自动优化这些权重,降低了多任务序数回归模型的分类误差。  相似文献   

18.
标签比例学习(LLP)是一种将实例放入包中的机器学习方法,它只提供包中的实例信息和标签比例信息,而不提供标签信息。针对多个相关任务的LLP问题,提出了一种基于迁移学习的标签比例集成学习模型,简称AT-LLP,该模型通过在任务之间构建共享参数来连接相关任务,将源任务中学习到的知识迁移到目标任务中,从而提高目标任务的学习效率。同时该算法引入了集成学习算法,在分类器多轮迭代的学习过程中,不断调整训练集的权重系数,进一步将弱分类器训练为强分类器。实验表明,所提AT-LLP模型比现有LLP方法具有更好的性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号