基于BERT预训练模型的中文文本摘要抽取方法及装置
实质审查的生效
摘要
本发明提供一种基于BERT预训练模型的中文文本摘要抽取方法及装置,所述方法包括:获取待抽取文本并基于LDA融合算法待抽取文本的关键词;将所述待抽取文本输入至BERT预训练语言模型中,得到所述待抽取文本固定维度的句向量;其中,所述BERT预训练语言模型通过对多个文本样本以及对应的样本句向量生成结果训练获取;对所述句向量进行权重计算并基于所述关键词进行权重修正,得到所述待抽取文本的文本摘要。本发明能够通过关键词反映文本的上下文语义,从而提高文本摘要的质量。
基本信息
专利标题 :
基于BERT预训练模型的中文文本摘要抽取方法及装置
专利标题(英):
暂无
公开(公告)号 :
CN114428852A
申请号 :
CN202210032641.X
公开(公告)日 :
2022-05-03
申请日 :
2022-01-12
授权号 :
暂无
授权日 :
暂无
发明人 :
雷盟林怡静布宇凡
申请人 :
北京邮电大学
申请人地址 :
北京市海淀区西土城路10号北京邮电大学
代理机构 :
北京路浩知识产权代理有限公司
代理人 :
周琦
优先权 :
CN202210032641.X
主分类号 :
G06F16/34
IPC分类号 :
G06F16/34 G06F40/289 G06F40/216 G06N3/08 G06N3/04
IPC结构图谱
G
G部——物理
G06
计算;推算或计数
G06F
电数字数据处理
G06F16/34
••浏览;其可视化
法律状态
2022-05-20 :
实质审查的生效
IPC(主分类) : G06F 16/34
申请日 : 20220112
申请日 : 20220112
2022-05-03 :
公开
注:本法律状态信息仅供参考,即时准确的法律状态信息须到国家知识产权局办理专利登记簿副本。
文件下载
暂无PDF文件可下载