首站-论文投稿智能助手
典型文献
基于本地化差分隐私的联邦学习方法研究
文献摘要:
联邦学习作为一种协作式机器学习方法,允许用户通过共享模型而不是原始数据进行多方模型训练,在实现隐私保护的同时充分利用用户数据,然而攻击者仍有可能通过窃听联邦学习参与方共享模型来窃取用户信息.为了解决联邦学习训练过程中存在的推理攻击问题,提出一种基于本地化差分隐私的联邦学习(LDP-FL)方法.首先,设计一种本地化差分隐私机制,作用在联邦学习参数的传递过程中,保证联邦模型训练过程免受推理攻击的影响.其次,提出并设计一种适用于联邦学习的性能损失约束机制,通过优化损失函数的约束范围来降低本地化差分隐私联邦模型的性能损失.最后,在MNIST和Fashion MNIST数据集上通过对比实验验证了所提方法的有效性.
文献关键词:
差分隐私;联邦学习;深度学习
作者姓名:
康海燕;冀源蕊
作者机构:
北京信息科技大学信息管理学院,北京 100192
文献出处:
引用格式:
[1]康海燕;冀源蕊-.基于本地化差分隐私的联邦学习方法研究)[J].通信学报,2022(10):94-105
A类:
B类:
本地化差分隐私,联邦学习,习作,协作式,机器学习方法,共享模型,原始数据,模型训练,隐私保护,用用,用户数据,攻击者,窃听,学习参与,参与方,窃取,取用,用户信息,学习训练,训练过程,LDP,FL,隐私机制,学习参数,传递过程,免受,失约,约束机制,优化损失函数,来降,MNIST,Fashion
AB值:
0.376102
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。