首页 | 官方网站   微博 | 高级检索  
     

基于循环卷积神经网络的实体关系抽取方法研究
引用本文:万静,李浩铭,严欢春,张雪超.基于循环卷积神经网络的实体关系抽取方法研究[J].计算机应用研究,2020,37(3):699-703.
作者姓名:万静  李浩铭  严欢春  张雪超
作者单位:北京化工大学 信息科学与技术学院,北京100029;国防大学 联合勤务学院,北京100091
摘    要:针对目前大多数关系抽取中对于文本语料中较长的实体共现句,往往只能获取到局部的特征,并不能学习到长距离依赖信息的问题,提出了一种基于循环卷积神经网络与注意力机制的实体关系抽取模型。将擅长处理远距离依赖关系的循环神经网络GRU加入到卷积神经网络的向量表示阶段,通过双向GRU学习得到词语的上下文信息向量,在卷积神经网络的池化层采取分段最大池化方法,在获取实体对结构信息的同时,提取更细粒度的特征信息,同时在模型中加入基于句子级别的注意力机制。在NYT数据集的实验结果表明提出方法能有效提高实体关系抽取的准确率与召回率。

关 键 词:GRU  循环卷积神经网络  注意力机制  关系抽取
收稿时间:2018/9/5 0:00:00
修稿时间:2020/1/31 0:00:00

Relation extraction based on recurrent convolutional neural network
Wan Jing,Li Haoming,Yan Huanchun and Zhang Xuechao.Relation extraction based on recurrent convolutional neural network[J].Application Research of Computers,2020,37(3):699-703.
Authors:Wan Jing  Li Haoming  Yan Huanchun and Zhang Xuechao
Affiliation:College of Information Science and Technology,Beijing University Of Chemical Technology,,,
Abstract:Most of the relation extraction approaches could not learn the long distance dependence information from the long sentences with entity co-occurrence. This paper proposed a new relation extraction model to solve this problem. It was based on the recurrent convolutional neural network and the sentence-level attention mechanism. It used the Bi-GRU neural network to learn context vectors for words. And it adopted the piecewise maximum pooling method, which could obtain fine grained features. Experimental results on the NYT dataset demonstrate that this proposed method outperforms the baseline systems.
Keywords:GRU  recurrent convolutional neural networks  attention  relation extraction
本文献已被 万方数据 等数据库收录!
点击此处可从《计算机应用研究》浏览原始摘要信息
点击此处可从《计算机应用研究》下载全文
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号