首站-论文投稿智能助手
典型文献
一种基于局部扰动的图像对抗样本生成方法
文献摘要:
近年来,随着人工智能的研究和发展,深度学习被广泛应用.深度学习在自然语言处理、计算机视觉等多个领域表现出良好的效果.特别是计算机视觉方面,在图像识别和图像分类中,深度学习具备非常高的准确性.然而越来越多的研究表明,深度神经网络存在着安全隐患,其中就包括对抗样本攻击.对抗样本是一种人为加入特定扰动的数据样本,这种特殊样本在传递给已训练好的模型时,神经网络模型会输出与预期结果不同的结果.在安全性要求较高的场景下,对抗样本显然会对采用深度神经网络的应用产生威胁.目前国内外对于对抗样本的研究主要集中在图片领域,图像对抗样本就是在图片中加入特殊信息的图片数据,使基于神经网络的图像分类模型做出错误的分类.已有的图像对抗样本方法主要采用全局扰动方法,即将这些扰动信息添加在整张图片上.相比于全局扰动,局部扰动将生成的扰动信息添加到图片的非重点区域,从而使得对抗样本隐蔽性更强,更难被人眼发现.本文提出了一种生成局部扰动的图像对抗样本方法.该方法首先使用Yolo目标检测方法识别出图片中的重点位置区域,然后以MIFGSM方法为基础,结合Curls方法中提到的先梯度下降再梯度上升的思想,在非重点区域添加扰动信息,从而生成局部扰动的对抗样本.实验结果表明,在对抗扰动区域减小的情况下可以实现与全局扰动相同的攻击成功率.
文献关键词:
对抗样本;局部扰动;目标检测;神经网络
作者姓名:
王辛晨;苏秋旸;杨邓奇;陈本辉;李晓伟
作者机构:
大理大学数学与计算机学院 大理中国 671000
文献出处:
引用格式:
[1]王辛晨;苏秋旸;杨邓奇;陈本辉;李晓伟-.一种基于局部扰动的图像对抗样本生成方法)[J].信息安全学报,2022(06):94-104
A类:
MIFGSM,Curls
B类:
局部扰动,对抗样本生成,生成方法,自然语言处理,计算机视觉,图像识别,和图像,图像分类,深度神经网络,对抗样本攻击,递给,练好,预期结果,生威,图片数据,分类模型,出错,全局扰动,加在,整张,重点区域,隐蔽性,人眼,Yolo,目标检测方法,方法识别,出图,梯度下降,梯度上升,加扰,对抗扰动,扰动区
AB值:
0.294097
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。