FAILED
首站-论文投稿智能助手
典型文献
卷积神经网络表征可视化研究综述
文献摘要:
近年来,深度学习在图像分类、目标检测及场景识别等任务上取得了突破性进展,这些任务多以卷积神经网络为基础搭建识别模型,训练后的模型拥有优异的自动特征提取和预测性能,能够为用户提供"输入-输出"形式的端到端解决方案.然而,由于分布式的特征编码和越来越复杂的模型结构,人们始终无法准确理解卷积神经网络模型内部知识表示,以及促使其做出特定决策的潜在原因.另一方面,卷积神经网络模型在一些高风险领域的应用,也要求对其决策原因进行充分了解,方能获取用户信任.因此,卷积神经网络的可解释性问题逐渐受到关注.研究人员针对性地提出了一系列用于理解和解释卷积神经网络的方法,包括事后解释方法和构建自解释的模型等,这些方法各有侧重和优势,从多方面对卷积神经网络进行特征分析和决策解释.表征可视化是其中一种重要的卷积神经网络可解释性方法,能够对卷积神经网络所学特征及输入-输出之间的相关关系以视觉的方式呈现,从而快速获取对卷积神经网络内部特征和决策的理解,具有过程简单和效果直观的特点.对近年来卷积神经网络表征可视化领域的相关文献进行了综合性回顾,按照以下几个方面组织内容:表征可视化研究的提起、相关概念及内容、可视化方法、可视化的效果评估及可视化的应用,重点关注了表征可视化方法的分类及算法的具体过程.最后是总结和对该领域仍存在的难点及未来研究趋势进行了展望.
文献关键词:
深度学习;卷积神经网络;可解释性;表征可视化;显著图
作者姓名:
司念文;张文林;屈丹;罗向阳;常禾雨;牛铜
作者机构:
信息工程大学信息系统工程学院 郑州450001;信息工程大学网络空间安全学院 郑州450001;信息工程大学密码工程学院 郑州450001
文献出处:
引用格式:
[1]司念文;张文林;屈丹;罗向阳;常禾雨;牛铜-.卷积神经网络表征可视化研究综述)[J].自动化学报,2022(08):1890-1920
A类:
表征可视化
B类:
可视化研究,图像分类,目标检测,场景识别,识别模型,自动特征提取,预测性能,端到端,特征编码,模型结构,解卷积,卷积神经网络模型,内部知识,知识表示,取用,用户信任,释卷,解释方法,自解释,分析和决策,可解释性方法,所学,有过程,提起,可视化方法,效果评估,研究趋势,显著图
AB值:
0.255894
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。