典型文献
BSLA:改进Siamese-LSTM的文本相似模型
文献摘要:
针对Siamese-LSTM模型对相似文本特征提取能力差的问题,提出了一种改进Siamese-LSTM的文本相似模型,该方法引入注意力机制,对相似词分配更大的权重,增强了对文本中相似词的识别能力,同时又引入目前先进的预训练模型BERT,提高相似文本上下文中不同词的交互能力,加强词与词之间的关联度,从而实现对相似与不相似文本的识别.实验结果表明,与当前流行的文本相似模型Siamese-LSTM、ABCNN、ESIM,BIMPM和仅引入BERT模型或注意力机制的Siamese-LSTM模型相比,Siamese-LSTM同时融合BERT和Attention的文本相似模型在准确率、精确率、召回率和F1评价指标表现出了很好的效果,在LCQMC和Quora Question Pairs数据集上F1值分别达到了86.18%和89.08%的最佳效果.
文献关键词:
Siamese-LSTM;文本相似;注意力机制;BERT
中图分类号:
作者姓名:
孟金旭;单鸿涛;万俊杰;贾仁祥
作者机构:
上海工程技术大学 电子电气工程学院,上海 201620
文献出处:
引用格式:
[1]孟金旭;单鸿涛;万俊杰;贾仁祥-.BSLA:改进Siamese-LSTM的文本相似模型)[J].计算机工程与应用,2022(23):178-185
A类:
BSLA,ABCNN,BIMPM
B类:
Siamese,文本相似,相似模型,文本特征提取,特征提取能力,注意力机制,识别能力,预训练模型,BERT,上下文,交互能,ESIM,Attention,精确率,召回率,LCQMC,Quora,Question,Pairs,最佳效果
AB值:
0.316699
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。