首站-论文投稿智能助手
典型文献
融合BERT与标签语义注意力的文本多标签分类方法
文献摘要:
多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一.针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT.首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量表示;然后,使用长短期记忆(LSTM)神经网络将标签进行单独编码;最后,利用注意力机制显性突出文本对每个标签的贡献,以预测多标签序列.实验结果表明,与基于序列生成模型(SGM)算法相比,所提出的方法在AAPD与RCV1-v2公开数据集上,F1值分别提高了2.8个百分点与1.5个百分点.
文献关键词:
多标签分类;BERT;标签语义信息;双向长短期记忆神经网络;注意力机制
作者姓名:
吕学强;彭郴;张乐;董志安;游新冬
作者机构:
网络文化与数字传播北京市重点实验室(北京信息科技大学),北京100101
文献出处:
引用格式:
[1]吕学强;彭郴;张乐;董志安;游新冬-.融合BERT与标签语义注意力的文本多标签分类方法)[J].计算机应用,2022(01):57-63
A类:
B类:
BERT,文本多标签分类,分类方法,多标签文本分类,MLTC,自然语言处理,NLP,要子,子课题,TLA,自编码,预训练模型,微调,上下文,向量表示,注意力机制,序列生成,生成模型,SGM,AAPD,RCV1,v2,公开数据集,百分点,标签语义信息,双向长短期记忆神经网络
AB值:
0.337397
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。