典型文献
                融合BERT与标签语义注意力的文本多标签分类方法
            文献摘要:
                    多标签文本分类(MLTC)是自然语言处理(NLP)领域的重要子课题之一.针对多个标签之间存在复杂关联性的问题,提出了一种融合BERT与标签语义注意力的MLTC方法TLA-BERT.首先,通过对自编码预训练模型进行微调,从而学习输入文本的上下文向量表示;然后,使用长短期记忆(LSTM)神经网络将标签进行单独编码;最后,利用注意力机制显性突出文本对每个标签的贡献,以预测多标签序列.实验结果表明,与基于序列生成模型(SGM)算法相比,所提出的方法在AAPD与RCV1-v2公开数据集上,F1值分别提高了2.8个百分点与1.5个百分点.
                文献关键词:
                    多标签分类;BERT;标签语义信息;双向长短期记忆神经网络;注意力机制
                中图分类号:
                    
                作者姓名:
                    
                        吕学强;彭郴;张乐;董志安;游新冬
                    
                作者机构:
                    网络文化与数字传播北京市重点实验室(北京信息科技大学),北京100101
                文献出处:
                    
                引用格式:
                    
                        [1]吕学强;彭郴;张乐;董志安;游新冬-.融合BERT与标签语义注意力的文本多标签分类方法)[J].计算机应用,2022(01):57-63
                    
                A类:
                
                B类:
                    BERT,文本多标签分类,分类方法,多标签文本分类,MLTC,自然语言处理,NLP,要子,子课题,TLA,自编码,预训练模型,微调,上下文,向量表示,注意力机制,序列生成,生成模型,SGM,AAPD,RCV1,v2,公开数据集,百分点,标签语义信息,双向长短期记忆神经网络
                AB值:
                    0.337397
                相似文献
                
            机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。