典型文献
可解释的知识图谱推理方法综述
文献摘要:
近年来,以深度学习模型为基础的人工智能研究不断取得突破性进展,但其大多具有黑盒性,不利于人类认知推理过程,导致高性能的复杂算法、模型及系统普遍缺乏决策的透明度和可解释性.在国防、医疗、网络与信息安全等对可解释性要求严格的关键领域,推理方法的不可解释性对推理结果及相关回溯造成较大影响,因此,需要将可解释性融入这些算法和系统中,通过显式的可解释知识推理辅助相关预测任务,形成一个可靠的行为解释机制.知识图谱作为最新的知识表达方式之一,通过对语义网络进行建模,以结构化的形式描述客观世界中实体及关系,被广泛应用于知识推理.基于知识图谱的知识推理在离散符号表示的基础上,通过推理路径、逻辑规则等辅助手段,对推理过程进行解释,为实现可解释人工智能提供重要途径.针对可解释知识图谱推理这一领域进行了全面的综述.阐述了可解释人工智能和知识推理相关概念.详细介绍近年来可解释知识图谱推理方法的最新研究进展,从人工智能的3个研究范式角度出发,总结了不同的知识图谱推理方法.提出对可解释的知识图谱推理研究前景和未来研究方向.
文献关键词:
知识推理;知识图谱;可解释人工智能;信息安全
中图分类号:
作者姓名:
夏毅;兰明敬;陈晓慧;罗军勇;周刚;何鹏
作者机构:
信息工程大学,河南郑州 450001
文献出处:
引用格式:
[1]夏毅;兰明敬;陈晓慧;罗军勇;周刚;何鹏-.可解释的知识图谱推理方法综述)[J].网络与信息安全学报,2022(05):1-25
A类:
B类:
知识图谱推理,推理方法,方法综述,深度学习模型,多具,黑盒,认知推理,推理过程,透明度,网络与信息安全,关键领域,不可解释性,关回,回溯,显式,知识推理,知识表达,表达方式,语义网络,基于知识,符号表示,逻辑规则,辅助手段,可解释人工智能,最新研究进展,研究范式,研究前景,未来研究方向
AB值:
0.268992
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。