典型文献
针对卷积神经网络流量分类器的对抗样本攻击防御
文献摘要:
随着深度学习的兴起,深度神经网络被成功应用于多种领域,但研究表明深度神经网络容易遭到对抗样本的恶意攻击.作为深度神经网络之一的卷积神经网络(CNN)目前也被成功应用于网络流量的分类问题,因此同样会遭遇对抗样本的攻击.为提高CNN网络流量分类器防御对抗样本的攻击,本文首先提出批次对抗训练方法,利用训练过程反向传播误差的特点,在一次反向传播过程中同时完成样本梯度和参数梯度的计算,可以明显提高训练效率.同时,由于训练用的对抗样本是在目标模型上生成,因此可有效防御白盒攻击;为进一步防御黑盒攻击,克服对抗样本的可转移性,提出增强对抗训练方法.利用多个模型生成样本梯度不一致的对抗样本,增加对抗样本的多样性,提高防御黑盒攻击的能力.通过真实流量数据集USTC-TFC2016上的实验,我们生成对抗样本的网络流量进行模拟攻击,结果表明针对白盒攻击,批次对抗训练可使对抗样本的分类准确率从17.29%提高到75.37%;针对黑盒攻击,增强对抗训练可使对抗样本的分类准确率从26.37%提高到68.39%.由于深度神经网络的黑箱特性,其工作机理和对抗样本产生的原因目前没有一致的认识.下一步工作对CNN的脆弱性机理进行进一步研究,从而找到更好的提高对抗训练效果的方法.
文献关键词:
流量分类;对抗样本;对抗训练
中图分类号:
作者姓名:
王滨;郭艳凯;钱亚冠;王佳敏;王星;顾钊铨
作者机构:
浙江科技学院大数据学院 杭州 中国 310023;杭州海康威视网络与信息安全实验室 杭州 中国 310052;广州大学网络空间先进技术研究院 广州 中国 510006
文献出处:
引用格式:
[1]王滨;郭艳凯;钱亚冠;王佳敏;王星;顾钊铨-.针对卷积神经网络流量分类器的对抗样本攻击防御)[J].信息安全学报,2022(01):145-156
A类:
B类:
网络流量分类,分类器,对抗样本攻击,攻击防御,深度神经网络,成功应用,恶意攻击,分类问题,对抗训练,训练方法,训练过程,反向传播,传播过程,提高训练,训练效率,目标模型,上生,白盒攻击,黑盒攻击,转移性,模型生成,流量数据,USTC,TFC2016,生成对抗,模拟攻击,分类准确率,黑箱,工作机理,脆弱性机理,训练效果
AB值:
0.264412
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。