FAILED
首站-论文投稿智能助手
典型文献
面向分层联邦学习的传输优化研究
文献摘要:
与传统机器学习相比,联邦学习有效解决了用户数据隐私和安全保护等问题,但是海量节点与云服务器间进行大量模型交换,会产生较高的通信成本,因此基于云-边-端的分层联邦学习受到了越来越多的重视.在分层联邦学习中,移动节点之间可采用D2D、机会通信等方式进行模型协作训练,边缘服务器执行局部模型聚合,云服务器执行全局模型聚合.为了提升模型的收敛速率,研究人员对面向分层联邦学习的网络传输优化技术展开了研究.文中介绍了分层联邦学习的概念及算法原理,总结了引起网络通信开销的关键挑战,归纳分析了选择合适节点、增强本地计算、减少本地模型更新上传数、压缩模型更新、分散训练和面向参数聚合传输这6种网络传输优化方法.最后,总结并探讨了未来的研究方向.
文献关键词:
分层联邦学习;传输优化;通信开销;节点选择;模型压缩
作者姓名:
邹赛兰;李卓;陈昕
作者机构:
网络文化与数字传播北京市重点实验室(北京信息科技大学) 北京100101;北京信息科技大学计算机学院 北京100101
文献出处:
引用格式:
[1]邹赛兰;李卓;陈昕-.面向分层联邦学习的传输优化研究)[J].计算机科学,2022(12):5-16
A类:
分层联邦学习
B类:
传输优化,用户数据,数据隐私,安全保护,云服务器,通信成本,移动节点,D2D,作训,边缘服务器,执行局,局部模型,模型聚合,全局模型,收敛速率,网络传输,优化技术,技术展,算法原理,起网,网络通信开销,关键挑战,归纳分析,模型更新,压缩模型,节点选择,模型压缩
AB值:
0.318878
相似文献
机标中图分类号,由域田数据科技根据网络公开资料自动分析生成,仅供学习研究参考。