FAILED
首站-论文投稿智能助手
典型文献
基于神经元激活模式控制的深度学习训练数据泄露诱导
文献摘要:
开放网络下分布式深度学习的兴起带来潜在的数据泄露风险.作为分布式模型构建中的重要信息载体,训练梯度是模型和端侧数据共同计算的产物,包含参与计算的私密用户数据信息.因此,近年的研究工作针对训练梯度提出一系列新型攻击方法.其中,尤以数据重建攻击(data reconstruction attack)所造成的攻击效果最佳:仅从深度神经网络的平均训练梯度中,攻击者即可近乎无损地恢复一个训练数据批次的各个样本.然而,已有数据重建攻击大多仅停留在攻击方法设计和实验验证层面,对重要实验现象缺乏深层机理分析.尽管有研究发现,满足特定神经元激活独占性(exclusivity)条件的任意大小训练数据批次能被攻击者从训练梯度中像素级重建,然而,实证研究表明在实际训练数据中满足该条件的训练数据批次比例较少,难以造成实际泄露威胁.为增强上述攻击的有效性和应用范围,提出基于线性规划的神经元激活模式控制算法,为给定训练批次生成微小扰动,从而满足神经元激活独占性,以增强后续数据重建攻击效能.在实际中,通过在端侧节点部署该算法,半诚实(honest-but-curious)分布式训练服务能诱导本地训练批次的训练梯度具有理论保证的可重建性.在5个涵盖人脸识别、智能诊断的数据集上的实验结果表明,提出方法在与原始攻击算法重建效果持平的情况下,将可重建训练批次大小从8张提升至实际应用大小,并提升攻击效率10倍以上.
文献关键词:
深度学习隐私;神经元激活模式;深度学习;人工智能;信息安全
作者姓名:
潘旭东;张谧;杨珉
作者机构:
复旦大学计算机科学技术学院 上海 200438
引用格式:
[1]潘旭东;张谧;杨珉-.基于神经元激活模式控制的深度学习训练数据泄露诱导)[J].计算机研究与发展,2022(10):2323-2337
A类:
神经元激活模式,exclusivity,深度学习隐私
B类:
模式控制,学习训练,训练数据,数据泄露,分布式深度学习,泄露风险,分布式模型,重要信息,信息载体,含参,私密,用户数据,攻击方法,尤以,数据重建,data,reconstruction,attack,深度神经网络,攻击者,近乎,方法设计,实验现象,机理分析,管有,定神,独占性,像素级,该条,线性规划,控制算法,小扰动,攻击效能,节点部署,诚实,honest,but,curious,分布式训练,人脸识别,智能诊断,攻击算法,持平
AB值:
0.374635
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。