一种基于BERT和BiGRU融合注意力机制的实体关系抽取...
实质审查的生效
摘要
本发明提出采用BERT模型和BiGRU网络并融入注意力机制的实体关系抽取方法。该方法使用BERT作为神经网络模型嵌入层,使用动态词向量对中文进行编码,弥补了word2vec在解决多义词问题上的不足;基于GRU更好地处理序列化任务的能力和CNN提取局部特征的突出性能,改善了单个神经网络模型特征提取不足的问题;结合了注意力机制,输出特征通过注意力机制加权,使得对关系分类影响较大的词通过注意力机制加权,从而提高分类精度。
基本信息
专利标题 :
一种基于BERT和BiGRU融合注意力机制的实体关系抽取方法
专利标题(英):
暂无
公开(公告)号 :
CN114510576A
申请号 :
CN202111551310.9
公开(公告)日 :
2022-05-17
申请日 :
2021-12-21
授权号 :
暂无
授权日 :
暂无
发明人 :
周焕来李嘉豪乔磊崖曾靓李金润刘桐贾海涛王俊
申请人 :
一拓通信集团股份有限公司
申请人地址 :
江苏省南京市江苏自贸区南京片区浦滨路320号科创一号大厦B座701室
代理机构 :
代理人 :
优先权 :
CN202111551310.9
主分类号 :
G06F16/36
IPC分类号 :
G06F16/36 G06F16/35 G06N3/04 G06N3/08 G06K9/62 G06F40/284 G06F40/216
IPC结构图谱
G
G部——物理
G06
计算;推算或计数
G06F
电数字数据处理
G06F16/36
••语义工具的产生,例如,本体论或词典
法律状态
2022-06-03 :
实质审查的生效
IPC(主分类) : G06F 16/36
申请日 : 20211221
申请日 : 20211221
2022-05-17 :
公开
注:本法律状态信息仅供参考,即时准确的法律状态信息须到国家知识产权局办理专利登记簿副本。
文件下载
暂无PDF文件可下载