典型文献
基于自编码神经网络的半监督联邦学习模型
文献摘要:
联邦学习是一种新型的分布式机器学习方法,可以使得各客户端在不分享隐私数据的前提下共同建立共享模型.然而现有的联邦学习框架仅适用于监督学习,即默认所有客户端数据均带有标签.由于现实中标记数据难以获取,联邦学习模型训练的前提假设通常很难成立.为解决此问题,对原有联邦学习进行扩展,提出了一种基于自编码神经网络的半监督联邦学习模型ANN-SSFL,该模型允许无标记的客户端参与联邦学习.无标记数据利用自编码神经网络学习得到可被分类的潜在特征,从而在联邦学习中提供无标记数据的特征信息来作出自身贡献.在MNIST数据集上进行实验,实验结果表明,提出的ANN-SSFL模型实际可行,在监督客户端数量不变的情况下,增加无监督客户端可以提高原有联邦学习精度.
文献关键词:
联邦学习;半监督学习;隐私保护;自编码神经网络
中图分类号:
作者姓名:
侯坤池;王楠;张可佳;宋蕾;袁琪;苗凤娟
作者机构:
黑龙江大学 数学科学学院,哈尔滨 150080;哈尔滨工程大学 计算机科学与技术学院,哈尔滨 150001;齐齐哈尔大学 通信与电子工程学院,黑龙江 齐齐哈尔 161006
文献出处:
引用格式:
[1]侯坤池;王楠;张可佳;宋蕾;袁琪;苗凤娟-.基于自编码神经网络的半监督联邦学习模型)[J].计算机应用研究,2022(04):1071-1074,1104
A类:
半监督联邦学习,SSFL
B类:
自编码神经网络,分布式机器学习,机器学习方法,客户端,不分,隐私数据,共享模型,默认,中标,记数,模型训练,前提假设,ANN,无标记,数据利用,神经网络学习,习得,潜在特征,特征信息,来作,MNIST,无监督,半监督学习,隐私保护
AB值:
0.239328
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。