典型文献
基于多尺度融合注意力机制的人脸表情识别研究
文献摘要:
针对传统卷积神经网络在表情特征提取阶段容易丢失大量有用信息,无法提取到高判别性表情特征,从而导致表情识别率低的问题,提出一种基于多尺度特征融合注意力机制的人脸表情识别方法.首先,采用VGGNet16来提取卷积特征.为了避免表情特征信息的丢失,将网络中不同层次卷积层的输出特征图进行多尺度特征融合,引入上下文信息的同时提取更加丰富的表情特征信息;为了能够着重关注关键表情特征,在网络中引入了注意力机制.该机制利用分组卷积操作对通道注意力模块进行改进,学习不同通道的权重信息,获取注意力特征图,增强特征的表达能力,抑制冗余信息的影响.为了进一步提高提取到表情特征的可判别性,引入孤岛损失函数,并与Soft-max分类损失函数联合使用构成新的损失函数.最后,由于对全连接层进行了删减.为防止网络出现过拟合问题,在卷积层引入了DropBlock策略.实验结果表明,该模型在Fer2013和CK+数据集上分别取得了 73.32%和97.40%的平均准确率.
文献关键词:
计算机视觉;深度学习;人脸表情识别;特征提取;多尺度特征融合;注意力机制
中图分类号:
作者姓名:
史浩;邢瑜航;陈炼
作者机构:
南昌大学信息工程学院,江西南昌330031
文献出处:
引用格式:
[1]史浩;邢瑜航;陈炼-.基于多尺度融合注意力机制的人脸表情识别研究)[J].微电子学与计算机,2022(03):34-40
A类:
B类:
多尺度融合,注意力机制,人脸表情识别,取到,判别性,识别率,多尺度特征融合,VGGNet16,卷积特征,特征信息,不同层次,卷积层,特征图,上下文信息,同时提取,该机,分组卷积,卷积操作,通道注意力模块,重信,表达能力,冗余信息,可判,孤岛,损失函数,Soft,max,数联,联合使用,全连接层,层进,删减,防止网络,过拟合,DropBlock,Fer2013,CK+,平均准确率,计算机视觉
AB值:
0.35565
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。