首站-论文投稿智能助手
典型文献
基于孪生结构的对抗样本攻击动态防御方法
文献摘要:
神经网络模型已被广泛应用于多个研究领域,但神经网络模型本身存在易受到对抗样本攻击的缺点,如在图像分类中,只需在原始图片中添加微小的对抗扰动生成对抗样本,就可以轻易欺骗神经网络分类模型,这给许多领域的应用安全带来严重的威胁.因此,研究如何提高神经网络分类模型对对抗样本攻击的防御能力成为深度学习安全领域的研究热点.目前常用的对抗样本攻击防御方法往往只侧重于提高模型对对抗样本分类的鲁棒性,或者只侧重于检测拦截对抗样本,而对抗训练需要收集大量对抗样本,且难以防御新类型的对抗样本攻击,对于使用额外的分类器去检测对抗样本的方法,则存在着易受到二次攻击等缺点.针对这些问题,提出一种基于孪生神经网络结构的对抗样本攻击动态防御方法,利用孪生结构可比较两个输入相似性的特点,从孪生神经网络两侧的预测差异着手,检测图片在动态滤波前后是否存在不同的攻击效果,从而筛选出带有动态扰动的对抗样本.实验结果表明,在没有收集特定种类的对抗样本进行训练的情况下,该方法对多种对抗样本攻击取得了良好的通用防御效果,其中在FGSM对抗样本测试集上的防御准确率达到95.35%,在DeepFool和JSMA对抗样本测试集上的防御准确率达到93.52%和93.73%,且镜像防御模块中的动态滤波器能够有效地平滑对抗扰动、防御二次攻击,提高了方法的整体安全性.
文献关键词:
深度学习;孪生神经网络;图像分类;对抗样本攻击
作者姓名:
熊夙;凌捷
作者机构:
广东工业大学 计算机学院,广州 510006
引用格式:
[1]熊夙;凌捷-.基于孪生结构的对抗样本攻击动态防御方法)[J].计算机工程与应用,2022(17):230-238
A类:
B类:
对抗样本攻击,动态防御,防御方法,如在,图像分类,对抗扰动,生成对抗,轻易,欺骗,神经网络分类,分类模型,应用安全,安全带,高神,对对,防御能力,深度学习安全,安全领域,攻击防御,拦截,对抗训练,新类型,分类器,二次攻击,孪生神经网络,神经网络结构,出带,动态扰动,FGSM,测试集,DeepFool,JSMA,镜像,动态滤波器,地平,整体安全性
AB值:
0.282463
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。