典型文献
基于改进Seq2Seq-Attention模型的文本摘要生成方法
文献摘要:
针对文本摘要生成中词汇语义表达不准确,重复生成以及核心词丢失等问题,提出了一种混合式文本摘要自动生成方法进行摘要抽取,并通过Seq2Seq-Attention模型进行文本摘要生成,在注意力机制中加入核心词,结合指针网络生成模型,该模型可以通过核心词中的重要信息,构建出摘要框架,生成信息全面精炼的文章摘要.解决重复生成以及核心词丢失等问题,文本词汇语义表达准确率明显提高,使得生成的摘要更加流畅.将模型混合进行实验,模型实验数据表明,BERT?SUM+Seq2Seq-Attention模型相比于传统模型ROUGE平均值提高了1.6%,混合模型的文本摘要自动生成技术能够提取文本数据中的关键词,形成简单有效的文本段落.
文献关键词:
文本摘要;自动生成;Seq2Seq-Attention模型;BERTSUM模型
中图分类号:
作者姓名:
门鼎;陈亮
作者机构:
西安工程大学计算机科学学院,陕西西安710048
文献出处:
引用格式:
[1]门鼎;陈亮-.基于改进Seq2Seq-Attention模型的文本摘要生成方法)[J].电子设计工程,2022(23):6-10
A类:
SUM+Seq2Seq,BERTSUM
B类:
Attention,文本摘要生成,中词,词汇语义,语义表达,复生,核心词,自动生成方法,摘要抽取,注意力机制,指针网络,生成模型,重要信息,精炼,流畅,模型实验,传统模型,ROUGE,混合模型,生成技术,文本数据,本段,段落
AB值:
0.274062
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。