典型文献
基于安全洗牌和差分隐私的联邦学习模型安全防护方法
文献摘要:
联邦学习可以在保证数据隐私安全及合法合规的基础上实现共同建模,但保证联邦学习模型发布的隐私性以及保证用户对模型的效用仍是亟待解决的问题.提出一种基于安全洗牌和差分隐私的联邦学习模型安全防护方法SFLSDP.联邦模型拥有者利用差分隐私技术对联邦学习的模型参数进行加噪声,生成带噪声的模型参数,之后利用用户授权密钥和安全洗牌算法加密模型参数,并将加密的联邦学习模型参数发送给用户;用户在本地使用联邦学习模型时,利用用户授权密钥和安全洗牌算法解密模型参数密文,得到带噪声的联邦学习模型,将自己的数据作为该模型的输入就能得到期望的输出结果.实验证明该方法可以保护原始学习模型的隐私性,同时获得较高的效用.
文献关键词:
联邦学习;差分隐私;安全洗牌算法;隐私保护;数据安全
中图分类号:
作者姓名:
粟勇;刘文龙;刘圣龙;江伊雯
作者机构:
南瑞集团有限公司(国网电力科学研究院有限公司) 南京211100;江苏瑞中数据股份有限公司 南京211100;国家电网有限公司大数据中心 北京110000
文献出处:
引用格式:
[1]粟勇;刘文龙;刘圣龙;江伊雯-.基于安全洗牌和差分隐私的联邦学习模型安全防护方法)[J].信息安全研究,2022(03):270-276
A类:
SFLSDP,安全洗牌算法
B类:
差分隐私,联邦学习,安全防护方法,保证数据,数据隐私安全,合法合规,隐私性,拥有者,对联,用用,用户授权,密钥,数发,发送给,解密,密文,到期,输出结果,隐私保护
AB值:
0.212534
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。