首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 859 毫秒
1.
目前关系抽取方法中,传统深度学习方法存在长距离依赖问题,并且未考虑模型输入与输出的相关性。针对以上问题,提出了一种将LSTM模型(Long Short-term memory)与注意力机制(Attention Mechanism)相结合的关系抽取方法。首先将文本信息向量化,提取文本局部特征;然后将文本局部特征导入双向LSTM模型中,通过注意力机制对LSTM模型的输入与输出之间的相关性进行重要度计算,根据重要度获取文本整体特征;最后将局部特征和整体特征进行特征融合,通过分类器输出分类结果。在SemEval-2010 Task 8语料库上的实验结果表明,该方法的准确率和稳定性较传统深度学习方法有进一步提高,为自动问答、信息检索以及本体学习等领域提供了方法支持。  相似文献   

2.
针对文本信息抽取中由于训练样本不足导致性能下降的问题,提出一种基于规矩约束的深度学习网络模型.模型分为深度学习模块、逻辑规则库和差异单元3个部分.将文本句子作为输入数据馈送到学习模块中,基于Bi-GRU网络和多头自注意力机制在多个维度上为每个单词生成一个预测向量;规则库采用带权重的逻辑规则对深度学习进行约束;差异单元利用损失函数协调学习模块与规则库之间的一致性.实验结果表明,所提模型比其它算法具有更好的性能,能够高效精确处理复杂文本.  相似文献   

3.
对文本中的上下文信息进行充分利用能够提高关系抽取性能,但当前多数基于深度学习的关系抽取方法仅捕获文本序列中的浅层特征信息,在长序列文本中易丢失上下文信息。针对传统LSTM中输入和隐藏状态之间相互独立且缺少信息交互的问题,建立一种基于Mogrifier LSTM的序列标注关系抽取模型。将由词嵌入、字符嵌入和位置嵌入构成的嵌入层结果输入Mogrifier LSTM层,该层通过在传统LSTM计算之前交替地让当前输入与之前隐藏状态进行多轮运算,以增强上下文交互能力。使用自注意力机制提高模型对重要特征的关注度,同时采用基于关系的注意力机制获取特定关系下的句子表示,从而解决实体关系重叠问题。在关系分类模块,利用Bi-LSTM进行序列标注,将句子中的每个词汇映射为相应的标签。实验结果表明,在NYT数据集上该模型的F1值达到0.841,优于HRL、OrderRL等模型,在存在SEO重叠类型的关系抽取中,F1值仍能达到0.745,所提模型能够在一定程度上解决关系重叠问题同时有效提升关系抽取性能。  相似文献   

4.
已有的跨句多元关系抽取工作将输入文本表示为集成句内和句间依赖关系的复杂文档图,但图中包含的噪声信息会影响关系抽取的效果。针对这种情况,该文利用Graph state LSTM获得上下文信息,再分别利用词级注意力机制或位置感知的注意力机制,自动聚焦在对关系抽取起到决定性作用的关键词上,降低噪声信息的影响。并且比较了两种注意力机制对使用Graph state LSTM进行关系抽取的影响。通过在一个重要的精确医学数据集上进行实验,验证了该文所提出模型的有效性。  相似文献   

5.
闻畅  刘宇  顾进广 《计算机应用》2019,39(6):1646-1651
针对现有突发事件关系抽取研究多集中于因果关系抽取而忽略了其他演化关系的问题,为了提高应急决策中信息抽取的完备性,应用一种基于注意力机制的双向长短时记忆(LSTM)网络模型进行突发事件演化关系抽取。首先,结合突发事件演化关系的概念,构建演化关系模型并进行形式化定义,依据模型对突发事件语料进行标注;其次,搭建双向LSTM网络结构,并引入注意力机制计算注意力概率以突出关键词汇在文本中的重要程度;最终,使用搭建的网络模型进行演化关系抽取得到结果。在演化关系抽取实验中,相对于现有因果关系抽取方法,所提方法不仅抽取出更加充分的演化关系,为突发事件应急决策提供了更完善的信息;同时,在正确率、召回率和F1分数上分别平均提升了7.3%、6.7%和7.0%,有效提高了突发事件演化关系抽取的准确性。  相似文献   

6.
传统生成式模型中存在的梯度经过多次传播后,倾向于消失或爆炸,且存在语言理解不充分的性能缺陷,为此提出一种生成式自动文本摘要方法(BiGRUAtten-LSTM).编码器端将原始文本输入到编码器并结合双向门控循环单元生成固定长度的语义向量,使用注意力机制分配每个输入词的权重来减少输入序列信息的细节损失.解码器端使用LSTM网络,融合先验知识和集束搜索方法将语义向量解码生成目标文本摘要.通过工业新闻数据集的实验验证,与传统的生成式文本摘要模型相比,ROUGE-1指标提高0.026、ROUGE-2指标提高0.056、ROUGE-L指标提高0.025.  相似文献   

7.
为解决领域新闻中词汇使用频率对输入预测准确度的影响,提出一种面向领域新闻的词汇输入预测方法,结合样本修剪提升LSTM应用于领域新闻词汇预测中的准确性。利用文本的词序关系形成词汇网络,构建词汇相关度度量模型计算词汇间的相关度,依据词汇间的强弱关系进行词汇修剪。基于词序关系,采用LSTM进行训练,生成词汇输入预测序列。实验结果表明,相比传统LSTM模型,所提方法能够提升平均4.73%的准确率,验证了所提方法的可行性与有效性。  相似文献   

8.
使机器自动描述图像一直是计算机视觉研究的长期目标之一.为了提高图像内容描述模型的精度,提出一种结合自适应注意力机制和残差连接的长短时间记忆网络(LSTM)的图像描述模型.首先根据pointer-net网络改进基本LSTM结构,增加记录图像视觉属性信息的单元;然后利用改进的LSTM结构,设计基于图像视觉语义属性的自适应注意力机制,自适应注意力机制根据上一时刻模型隐藏层状态,自动选择下一时刻模型需要处理的图像区域;此外,为了得到更紧密的图像与描述语句之间映射关系,构建基于残差连接的双层LSTM结构;最终得到模型能够联合图像视觉特征和语义特征对图像进行内容描述.在MSCOCO和Flickr30K图像集中进行训练和测试,并使用不同的评估方法对模型进行实验验证,结果表明所提模型的性能有较大的提高.  相似文献   

9.
针对传统DDoS攻击检测中存在准确率低、误报率高、低速率攻击流量难以检测等问题,提出一种基于注意力机制的双向长短期记忆网络的DDoS攻击检测方法.将根据领域知识所提取的明显攻击特征向量与数据预处理后的数据流矩阵进行向量拼接,构成基于注意力机制的双向长短期记忆网络数据输入格式,实现从原始流量的复杂级特征快速聚焦于DDoS攻击的隐含信息.通过CAIDA-2007数据集训练模型,实验结果表明,所提模型与传统机器学习模型相比准确率达到98.9%,检测效果优于其它算法,能够有效实现DDoS攻击检测.  相似文献   

10.
随着电力通信网络的快速增长,网络中通信设备的在线状态预测对于提升运维可靠性具有重要意义。在实际场景中,设备工作数据来源复杂,往往存在数据维度高、特征稀疏且模式重复等问题,导致传统的预测方法性能非常受限。本文提出一种基于注意力机制和LSTM(长短时记忆)模块的设备状态预测模型。模型训练分2阶段进行,保证注意力机制能够通过端到端学习对原始特征进行充分降维并提取出最相关的信息进行状态预测。基于电力通信网络真实运维数据进行一系列验证实验,结果表明所提方法在设备状态预测问题中的有效性。  相似文献   

11.
针对问句文本通常较短、语义信息与词语共现信息不足等问题,提出一种多层级注意力卷积长短时记忆模型(multi-level attention convolution LSTM neural network,MAC-LSTM)的问题分类方法。相比基于词嵌入的深度学习模型,该方法使用疑问词注意力机制对问句中的疑问词特征重点关注。同时,使用注意力机制结合卷积神经网络与长短时记忆模型各自文本建模的优势,既能够并行方式提取词汇级特征,又能够学习更高级别的长距离依赖特征。实验表明,该方法较传统的机器学习方法和普通的卷积神经网络、长短时记忆模型有明显的效果提升。  相似文献   

12.
方面级别文本情感分析旨在分析文本中不同方面所对应的情感趋向。传统基于神经网络的深度学习模型在文本情感分析的过程中,大多直接使用注意力机制而忽略了句法关系的重要性,即不能充分利用方面节点的上下文语义信息,导致情感趋向预测效果不佳。针对该问题,设计一种融合句法信息的图注意力神经网络模型,并将其应用于文本情感分析任务。利用预训练模型BERT进行词嵌入得到初始词向量,将初始词向量输入双向门控循环神经网络以增强特征向量与上下文信息之间的融合,防止重要上下文语义信息丢失。通过融合句法信息的图注意力网络加强不同方面节点之间的交互,从而提升模型的特征学习能力。在SemEval-2014数据集上的实验结果表明,该模型能够充分利用句法信息进行情感分析,其准确率较LSTM及其变种模型至少提升3%,对Restaurant评论进行情感分类预测时准确率高达83.3%。  相似文献   

13.
基于时序数据建模的长短时神经网络(LSTM)可用于预测类问题。现实场景中,LSTM预测精度往往与输入序列长度相关,有效的历史信息会被新输入的数据淹没。针对此问题,提出在LSTM节点中构建强化门实现对遗忘信息的提取,并与记忆信息按比例选取、融合、输入记忆单元,增加学习过程中的梯度传导能力,使网络对相对较远的信息保持敏感以提升记忆能力。实验采用工业故障数据,当序列长度超过100时,具有强化门机制的改进模型预测误差低于其他LSTM模型。预测精度的差距随序列增加而增大,当序列长度增至200时,改进模型的预测误差(RMSE/MAE)较原模型分别降低了26.98%与35.85%。  相似文献   

14.
采用多尺度注意力机制的远程监督关系抽取   总被引:1,自引:0,他引:1  
针对目前大多数关系抽取模型中局部特征及全局特征利用不充分的缺点,该文提出一种采用多尺度注意力机制的远程监督关系抽取模型。在词语层面,通过在池化层构建权重矩阵来衡量词语与关系的相关程度,从而捕捉句子中重要的语义特征;在句子层面,采用注意力机制将预测关系与句子进行相关性比较,获得句子级别的重要信息。模型在NYT数据集上平均准确率达到78%,表明该模型能够有效地利用多尺度特征,并且提高远程关系抽取任务的准确率。  相似文献   

15.
多个对象同时讨论时,对文本的情感分析结果与针对特定对象的情感倾向可能不一致,对象级情感分类任务需在文本整体语义的场景下,重点关注与给定对象相关的内容.文中提出融合词性和注意力的卷积神经网络对象级情感分类方法.引入词性信息,通过长短时记忆神经网络建模输入序列,构建对象注意力,将注意力融入到卷积神经网络结构中分析关于给定对象的情感倾向.词性信息有助于捕获与对象具有修饰关系的内容和弱化内容或距离相近但无搭配关系的句子成分的影响.结合长短时记忆神经网络和卷积神经网络结构建模文本,更有利于同时建模文本整体语义与对象相关语义.在SemEval2014数据集上的实验表明,文中方法取得优于基于长短时记忆神经网络的注意力机制方法的分类效果.  相似文献   

16.
传统的故障诊断方法在对轴承故障进行判定时, 存在特征提取不充分, 时序特性运用不完全且计算较为复杂的问题. 对于此问题, 本文提出一种基于多尺度卷积神经网络(multi-scale convolutional neural network, MCNN)、双向门控循环单元(bidirectional gated recurrent unit, BiGRU)和注意力机制(attention)的组合诊断方法. 该方法首先使用MCNN对信号数据进行多尺度特征提取, 在空间层面上, 实现了对特征的进一步提炼. 其次使用了BiGRU网络, 在时间层面上, 从正反两个方向获取时序关系. 接下来引入注意力机制, 忽略一些与结果不相关的信息并且降低信息丢失的风险以提高精度, 在经过全连接层创建映射后, 最后通过Softmax分类方法完成轴承故障诊断. 本文通过实验, 与LSTM模型、GRU模型、SVM模型、CNN-BiGRU等模型进行对比, 实验结果表明, 本文提出的模型相比以往提出的模型准确率更高, 单一工况下的故障诊断准确率达到了98.1%, 多工况条件下平均准确率达到了97.8%.  相似文献   

17.
随着深度学习的发展,越来越多的深度学习模型被运用到了关系提取的任务中,但是传统的深度学习模型无法解决长距离依赖问题;同时,远程监督将会不可避免地产生错误标签。针对以上两个问题,提出一种基于GRU(gated recurrent unit)和注意力机制的远程监督关系抽取方法,首先通过使用GRU神经网络来提取文本特征,解决长距离依赖问题;接着在实体对上构建句子级的注意力机制,减小噪声句子的权重;最后在真实的数据集上,通过计算准确率、召回率并绘出PR曲线证明该方法与现有的一些方法相比,取得了比较显著的进步。  相似文献   

18.
为解决传统机器学习方法特征提取工作艰难导致对跨站脚本检测性能有限的问题,提出应用注意力机制改进编码-解码框架的方法并以此建立模型检测跨站脚本。由卷积神经网络和双向门控循环单元网络并行构成编码器,既考虑输入数据上下文信息,又充分提取有效特征;使用注意力机制解决传统编码-解码框架的“分心问题”;使用门控循环单元网络构成解码器,使用分类器进行分类检测。在收集到的数据集上进行仿真实验,验证了模型的有效性和性能优势。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号