典型文献
                基于图像翻转变换的对抗样本生成方法
            文献摘要:
                    面对对抗样本的攻击,深度神经网络是脆弱的.对抗样本是在原始输入图像上添加人眼几乎不可见的噪声生成的,从而使深度神经网络误分类并带来安全威胁.因此在深度神经网络部署前,对抗性攻击是评估模型鲁棒性的重要方法.然而,在黑盒情况下,对抗样本的攻击成功率还有待提高,即对抗样本的可迁移性有待提升.针对上述情况,提出基于图像翻转变换的对抗样本生成方法——FT-MI-FGSM(Flipping Transformation Momentum Iterative Fast Gradient Sign Method).首先,从数据增强的角度出发,在对抗样本生成过程的每次迭代中,对原始输入图像随机翻转变换;然后,计算变换后图像的梯度;最后,根据梯度生成对抗样本以减轻对抗样本生成过程中的过拟合,并提升对抗样本的可迁移性.此外,通过使用攻击集成模型的方法,进一步提高对抗样本的可迁移性.在ImageNet数据集上验证了所提方法的有效性.相较于I-FGSM(Iterative Fast Gradient Sign Method)和MI-FGSM(Momentum I-FGSM),在攻击集成模型设置下,FT-MI-FGSM在对抗训练网络上的平均黑盒攻击成功率分别提升了26.0和8.4个百分点.
                文献关键词:
                    图像翻转变换;对抗样本;黑盒攻击;深度神经网络;可迁移性
                中图分类号:
                    
                作者姓名:
                    
                        杨博;张恒巍;李哲铭;徐开勇
                    
                作者机构:
                    中国人民解放军战略支援部队信息工程大学,郑州450001;中国人民解放军陆军参谋部,北京100000
                文献出处:
                    
                引用格式:
                    
                        [1]杨博;张恒巍;李哲铭;徐开勇-.基于图像翻转变换的对抗样本生成方法)[J].计算机应用,2022(08):2319-2325
                    
                A类:
                图像翻转变换,Flipping
                B类:
                    对抗样本生成,生成方法,对对,深度神经网络,加人,人眼,不可见,误分类,安全威胁,网络部署,对抗性,模型鲁棒性,可迁移性,上述情况,FT,MI,FGSM,Transformation,Momentum,Iterative,Fast,Gradient,Sign,Method,数据增强,生成过程,后图,生成对抗,过拟合,集成模型,ImageNet,对抗训练,黑盒攻击,百分点
                AB值:
                    0.234302
                相似文献
                
            机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。