典型文献
深度学习中的后门攻击综述
文献摘要:
随着深度学习研究与应用的迅速发展,人工智能安全问题日益突出.近年来,深度学习模型的脆弱性和不鲁棒性被不断的揭示,针对深度学习模型的攻击方法层出不穷,而后门攻击就是其中一类新的攻击范式.与对抗样本和数据投毒不同,后门攻击者在模型的训练数据中添加触发器并改变对应的标签为目标类别.深度学习模型在中毒数据集上训练后就被植入了可由触发器激活的后门,使得模型对于正常输入仍可保持高精度的工作,而当输入具有触发器时,模型将按照攻击者所指定的目标类别输出.在这种新的攻击场景和设置下,深度学习模型表现出了极大的脆弱性,这对人工智能领域产生了极大的安全威胁,后门攻击也成为了一个热门研究方向.因此,为了更好的提高深度学习模型对于后门攻击的安全性,本文针对深度学习中的后门攻击方法进行了全面的分析.首先分析了后门攻击和其他攻击范式的区别,定义了基本的攻击方法和流程,然后对后门攻击的敌手模型、评估指标、攻击设置等方面进行了总结.接着,将现有的攻击方法从可见性、触发器类型、标签类型以及攻击场景等多个维度进行分类,包含了计算机视觉和自然语言处理在内的多个领域.此外,还总结了后门攻击研究中常用的任务、数据集与深度学习模型,并介绍了后门攻击在数据隐私、模型保护以及模型水印等方面的有益应用,最后对未来的关键研究方向进行了展望.
文献关键词:
后门攻击;人工智能安全;深度学习
中图分类号:
作者姓名:
杜巍;刘功申
作者机构:
上海交通大学网络空间安全学院 上海中国200240
文献出处:
引用格式:
[1]杜巍;刘功申-.深度学习中的后门攻击综述)[J].信息安全学报,2022(03):1-16
A类:
B类:
后门攻击,学习研究,人工智能安全,深度学习模型,脆弱性,攻击方法,方法层,对抗样本,数据投毒,攻击者,训练数据,触发器,签为,所指,别输,人工智能领域,安全威胁,高深,敌手,手模型,可见性,计算机视觉,自然语言处理,数据隐私,模型保护,模型水印
AB值:
0.233887
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。