典型文献
基于图像翻转变换的对抗样本生成方法
文献摘要:
面对对抗样本的攻击,深度神经网络是脆弱的.对抗样本是在原始输入图像上添加人眼几乎不可见的噪声生成的,从而使深度神经网络误分类并带来安全威胁.因此在深度神经网络部署前,对抗性攻击是评估模型鲁棒性的重要方法.然而,在黑盒情况下,对抗样本的攻击成功率还有待提高,即对抗样本的可迁移性有待提升.针对上述情况,提出基于图像翻转变换的对抗样本生成方法——FT-MI-FGSM(Flipping Transformation Momentum Iterative Fast Gradient Sign Method).首先,从数据增强的角度出发,在对抗样本生成过程的每次迭代中,对原始输入图像随机翻转变换;然后,计算变换后图像的梯度;最后,根据梯度生成对抗样本以减轻对抗样本生成过程中的过拟合,并提升对抗样本的可迁移性.此外,通过使用攻击集成模型的方法,进一步提高对抗样本的可迁移性.在ImageNet数据集上验证了所提方法的有效性.相较于I-FGSM(Iterative Fast Gradient Sign Method)和MI-FGSM(Momentum I-FGSM),在攻击集成模型设置下,FT-MI-FGSM在对抗训练网络上的平均黑盒攻击成功率分别提升了26.0和8.4个百分点.
文献关键词:
图像翻转变换;对抗样本;黑盒攻击;深度神经网络;可迁移性
中图分类号:
作者姓名:
杨博;张恒巍;李哲铭;徐开勇
作者机构:
中国人民解放军战略支援部队信息工程大学,郑州450001;中国人民解放军陆军参谋部,北京100000
文献出处:
引用格式:
[1]杨博;张恒巍;李哲铭;徐开勇-.基于图像翻转变换的对抗样本生成方法)[J].计算机应用,2022(08):2319-2325
A类:
图像翻转变换,Flipping
B类:
对抗样本生成,生成方法,对对,深度神经网络,加人,人眼,不可见,误分类,安全威胁,网络部署,对抗性,模型鲁棒性,可迁移性,上述情况,FT,MI,FGSM,Transformation,Momentum,Iterative,Fast,Gradient,Sign,Method,数据增强,生成过程,后图,生成对抗,过拟合,集成模型,ImageNet,对抗训练,黑盒攻击,百分点
AB值:
0.234302
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。