首站-论文投稿智能助手
典型文献
基于秘密共享的本地多节点联邦学习算法
文献摘要:
深度学习技术在各个领域中的应用越来越广泛,而深度学习模型的准确性需要依靠大量的训练数据.由于数据安全和法规限制,许多领域存在无法集中数据进行训练的情况,导致"数据孤岛"的现象.对此,谷歌提出能使大量客户端在数据保存本地的情况下与可信服务器联合训练模型的联邦学习.目前,联邦学习的研究主要集中在安全性和训练效率的问题上,针对跨数据库联邦学习场景,文章将分层联邦学习和基于安全多方计算的隐私保护机制结合,提出了一种基于秘密共享的本地多节点联邦学习算法Mask-FL,以保证联邦学习安全性的同时提高训练效率.主要工作包括:①提出本地多节点的跨数据库联邦学习框架,客户端利用本地计算资源生成多个本地节点,并且根据基于计算能力的数据划分方法进行分配数据资源,每个客户端代表局部所有节点参与全局联邦学习训练,从而构成3层级的分层联邦学习;②提出基于秘密共享的自适应掩码加密协议,在前面提出的联邦学习框架基础上,通过秘密共享的方式生成可复用的安全参数掩码,本地节点在训练过程的上行通信中对模型添加掩码从而保护模型参数安全.经过安全性假设分析证明,该算法可保护客户端的数据隐私安全.在通用数据集的实验表明,该算法能够在保护隐私的前提下保持相对较高的准确率,并且显著减少了全局通信轮次,训练效率相比于传统联邦学习方法提高30%,有效地提高了跨数据库联邦学习中的模型训练速度.
文献关键词:
联邦学习;安全多方计算;分布式计算;隐私保护
作者姓名:
王捍贫;范耀榕
作者机构:
广州大学 计算机科学与网络工程学院,广东 广州 510006
引用格式:
[1]王捍贫;范耀榕-.基于秘密共享的本地多节点联邦学习算法)[J].广州大学学报(自然科学版),2022(03):1-13
A类:
分层联邦学习
B类:
秘密共享,多节点,深度学习技术,深度学习模型,训练数据,数据孤岛,客户端,保存本,信服,服务器,联合训练,训练模型,训练效率,跨数据库,学习场景,安全多方计算,隐私保护机制,Mask,FL,提高训练,工作包,计算资源,资源生成,计算能力,数据划分,划分方法,配数,数据资源,点参,学习训练,掩码,加密协议,框架基础,可复用,安全参数,训练过程,数据隐私安全,通用数据,保护隐私,轮次,模型训练,训练速度,分布式计算
AB值:
0.320234
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。