移动边缘网络中的联邦学习:一项综合性调查外文翻译资料
2022-08-24 11:25:14
英语原文共 31 页,剩余内容已隐藏,支付完成后下载完整资料
移动边缘网络中的联邦学习:一项综合性调查
摘要:近年来,移动设备具有越发先进的感知和计算能力。再加上深度学习(DL)的进步,这为生活中具有实际意义的应用带来了无可计数的的可能,例如,医学用途和车载网络。传统的基于云的机器学习(ML)方法要求数据集中在云服务器或数据中心。然而,这导致了与过度延迟和低效通信相关的关键问题。为此,人们提出了移动边缘计算(MEC),以使智能更接近数据产生的边缘。但是移动边缘网络的传统机器学习启用技术仍然要求与外部方(例如边缘服务器)共享个人数据。近年来,面对日益完善的数据隐私立法和日益增长的隐私问题,联邦学习(FL)的概念被引入。在联邦学习中,终端设备使用其本地数据来训练服务器所需的机器学习模型。终端设备将模型更新数据发送到服务器进行聚合,而不会发送源数据。联邦学习可以作为移动边缘网络中的一种驱动技术,因为它可以实现机器学习模型的协同训练,还可以实现用于移动边缘网络优化的深度学习。然而,在大规模复杂的移动边缘网络中,存在着各种约束条件的异构设备。这给大规模的联邦学习的实现带来了通信成本、资源分配、隐私和安全等方面的挑战。在本次调查中,我们首先介绍了联邦学习的背景和基础。然后,我们强调了上述联邦学习实现所面对的挑战,并审视了现有的解决方案。此外,我们还介绍了联邦学习在移动边缘网络优化中的应用。最终,我们讨论了联邦学习面对的重大挑战、开放性问题和未来研究方向。
关键词:联邦学习,移动边缘网络,资源分配,通信成本,数据隐私,数据安全
- 介绍
目前,全球有近70亿台物联网设备[1]和30亿部智能手机。这些设备配备了越来越先进的传感器、计算和通信能力。因此,它们具有用于各种众感知任务的潜力,例如医用目的[2]和空气质量监测[3]。再加上深度学习的兴起[4],终端设备收集的大量数据为有意义的研究和应用开辟了无数的可能性。在传统的以云为中心的方法中,移动设备收集的数据在云服务器或数据中心上集中上传和处理。具体而言,物联网设备和智能手机收集的数据,例如数量[5]、照片[6]、视频[7]和位置信息[8]在数据中心聚合[9]。此后,数据被用来提供参考或产生有效的推理模型。但是,由于一些原因,这种做法不再具有可持续性。首先,数据所有者对隐私越来越敏感。在大数据时代,消费者对个人隐私产生担忧之后,政策制定者们纷纷响应,完善数据隐私立法,如欧盟委员会的《通用数据保护条例》(GDPR)[10]和美国的《消费者隐私权法案》[11]。特别是,六号批文(GDPR第6条)和数据最小化原则(GDPR 第5条)仅将数据收集和数据存储限制在消费者同意和绝对必要地处理的范围内。其次,以云为中心的方法涉及到长传播延迟,并且对于必须做出实时决策的应用程序(例如自动驾驶汽车系统)会产生不可接受的过度延迟[12]。第三,将数据传输到云上处理会加重主干网络的负担,特别是在涉及非结构化数据的任务中,例如视频分析[14]。而云中心训练相对依赖于无线通信[15]使情况更加恶化。因此,这可能会阻碍新技术的发展。
由于目前数据源主要位于云外[16],移动边缘计算(MEC)自然就被提议作为一种解决方案,利用终端设备和边缘服务器的计算和存储能力[12],使模型训练更接近数据产生的位置[17]。正如无线通信中所定义的,一个终端边缘云计算网络包括:(i)终端设备,(ii)边缘节点,和(iii)云服务器。对于传统移动边缘计算方法中的模型训练方法中,提出了一种协作模式:在计算密集型任务加载到云端之前,首先将训练数据发送到边缘服务器,用于低层深度神经网络层的模型训练[18],[19](图1)。然而,这种安排会带来巨大的沟通成本,并且尤其不适合需要持续训练[15]的应用程序。此外,边缘服务器的流量计算和数据处理仍然潜在地涉及敏感的个人数据传输的问题。这可能会阻止对隐私敏感的消费者参加模特培训,甚至违反日益严密的隐私法[10]。尽管已经提出了各种隐私保护方法,例如差分隐私(DP)[20],但是许多用户仍然不愿意公开他们的私有数据,因为他们担心他们的数据可能被外部的服务器。从长远来看,这样既阻碍了技术的发展又妨碍了应用的创新。
为了保证训练数据只存储在个人设备上,并促进分布式设备之间复杂模型的协作机器学习,引入了一种分散型的机器学习方法——联邦学习[21]。在联邦学习中,移动设备使用其本地数据在联邦学习服务器上协同训练所需要的机器学习模型。然后,他们将模型更新(即模型权重的更新)发送到联邦学习服务器上进行聚合。重复这些步骤,直到达到理想的精度。这意味着联邦学习可以成为移动边缘网络中机器学习模型训练的一种促进技术。与传统的云中心的机器学习模型训练方法相比,联邦学习在模型训练上具有以下优点:
- 网络带宽利用率高:传输到云上的信息更少。例如,参与设备只需要发送更新的模型参数进行聚合,而不用发送原数据进行处理。因此,这大大降低了数据通信的成本,并且减轻了主干网络的负担。
- 隐私性:参照上一个优点,用户的原始数据不需要发送到云上。这保证了用户的隐私性。事实上,在保证隐私的前提下,有更多的用户愿意参与协同模型的训练,从而建立了更好的推理模型。
- 低延迟:使用联邦学习的情况下,机器学习模型可以持续训练和更新。同时,在移动边缘计算范式中,边缘节点或终端设备可以在本地做出像事件检测[22]这样的实时决策。因此,相较于在云上就进行决策的延迟,将数据发送到终端设备上决策要低得多。这对于诸如自动驾驶汽车系统之类的对时间精度要求非常高的应用来说至关重要。在这些应用中,就算是最轻微的延迟也有危及生命[13]的可能。
鉴于上述优点,联邦学习最近已经在一些应用中取得了成功。例如,提出的联邦平均算法(FedAvg)[23]已经应用到Google的Gboard[24]中,改进用来猜测输入的下一词预测模型。此外,一些研究还探讨了在数据具有敏感性的情况下联邦学习的使用。例如,发展健康诊断AI的预测模型[25]和促进多个政府机构之间的合作[26]。
此外,联邦学习除了是移动边缘网络机器学习模型训练的一种使能技术外,也可以推动移动边缘网络的优化。考虑到日益复杂的移动边缘网络存在计算和存储的限制,基于静态模型的传统网络优化方法在对动态网络[15]建模时表现得相对较差。因此,基于数据驱动的深度学习(DL)[27]的优化资源分配方法越来越流行。例如,DL可用于网络条件的表层学习[28],而增强学习(DRL)可通过与动态环境[29]的交互优化决策。然而,上述方法要求用户数据作为输入,并且由于监管限制,这些数据可能具有敏感性或不可访问性。因此,在本次调查中,我们也考虑到了联邦学习作为优化移动边缘网络的一种推动技术的潜力,例如区间关联[30]、流量计算[31]和车辆运输网络[32]。
然而,一定规模上实施联邦学习还面临着一些挑战。首先,由于模型更新的高维度和参与通信的移动设备通信带宽有限,通信成本仍然是一个问题。其次,在一个大型复杂的移动边缘网络中,参与设备在数据质量、计算能力和参与意愿等方面的异构性必须从资源分配的角度得到很好的管理。第三,最近的研究工作已经清楚地表明,联邦学习中可能存在恶意参与者,并且能够根据共享参数推断出其他参与者的信息。因此,需要对联邦学习的隐私和安全问题再度考量。
虽然有关于移动边缘计算和联邦学习的调查,但是现有的研究通常单独处理这两个主题。对于有关联邦学习的调查,参考文献33的作者[33]强调讨论不同的联邦学习所设置的结构和分类,以用于训练数据的不同分布。文献34中的作者[34]则只强调了联邦学习在无线通信中的应用,但没有讨论与联邦学习实现有关的问题。此外,文献34的重点是蜂窝网络架构,而不是移动边缘网络。相比之下,文献35的作者[35]提供了联邦学习的概述及其实现面临的挑战,但没有考虑联邦学习中的资源分配问题和联邦学习在移动边缘网络优化中的潜在应用。另一方面,对于移动边缘计算的调查,主要是研究边缘网络上实现机器学习模型训练,并且通常采用一种宏观方法,其中联邦学习被简要地认为是移动边缘计算模式中的一种使能技术,但没有对其实现或所面临的挑战进行详细阐述。尤其是在文献14、36、37中[36][37],作者在不考虑联邦学习所面对的挑战的情况下,研究边缘网络的训练和推演的结构和过程。此外,用深度学习实现移动边缘网络优化的研究大多没有将联邦学习作为保护数据隐私的潜在解决方案。例如文献19、38、39、40的作者[38][39][40]讨论了优化移动边缘网络流量计算的策略,但在他们的研究中没有考虑使用保护隐私的联邦方法。类似地,文献29中考虑在通信和网络中使用增强学习,但没有涵盖联邦增强学习的方法。
综上所述,大多数现有的关于联邦学习的研究没有考虑联邦学习在移动边缘网络中的应用,而现有的关于移动边缘计算的调查则没有考虑到联邦学习实现过程中的挑战,也没有考虑到移动边缘网络优化中联邦学习方法的潜力。这促使我们进行一次全面的调查,包括:(i)关于联邦学习实现的说明;(ii)联邦学习的独特特性和由此带来的挑战;(iii)联邦学习作为移动边缘网络优化的一种使能技术。为了读者的方便,我们在图2中对本调查中要讨论的相关研究进行了分类。分类是基于:(i)移动边缘网络上的联邦学习,即关注在终端设备上实现机器学习模型协作训练的挑战的研究;(ii)用于移动边缘网络的联邦学习,即探索使用联邦学习进行移动边缘网络优化。我们还提供了一个通用缩写列表作为参考,见表一。
本文的剩余部分安排如下:第二节介绍联邦学习的背景和基本原理;第三节回顾降低通信成本而提供的解决方案;第四节讨论联邦学习的资源分配方法;第五节讨论隐私和安全问题。第六节讨论联邦学习在移动边缘网络优化中的应用;第七节讨论联邦学习面临的挑战、存在的问题和未来的研究方向;第八节进行总结;
- 联邦学习的背景和基本原理
最近一段时间,继深度学习在诸如计算机视觉(CV)[41]和自然语言处理(NLP)等几个领域的成功运用并发展后,人工智能(AI)已经成为我们生活的一个重要组成部分。在传统的深度神经网络(DNNs)训练中,采用了一种基于云的方法,在强大的云服务器中进行数据集中和模型训练。然而,考虑到传感和计算能力越来越先进的移动设备的广泛存在,自然出现了智能从云端到边缘的迁移,就是移动边缘计算模式。此外,由于对隐私的顾虑越来越多,致使人们提出了联邦学习的概念。
联邦学习涉及到终端设备上深度神经网络模型的协同训练。一般来说,在联邦学习训练过程中有两个步骤:(i)本地模型训练;(ii)更新参数的整体聚合。在本节中,我们首先简要介绍一下深度神经网络的模型训练,其中概括了联邦学习的本地模型的训练。注意,虽然联邦学习大体上可以应用于机器学习模型的训练,但我们在本节中特别关注深度神经网络模型训练有两个原因。首先,在移动边缘网络上实现联邦学习可以直接利用分布式终端设备不断增强的计算能力和其所收集的丰富数据,这两者都是深度学习兴起的驱动力量。其次,我们所参考的大部分论文都致力于深度神经网模型的联合训练上。因此,简要介绍一下深度神经网络的模型训练将有助于理解后续章节。然后,我们会提出一个包含整体聚合和本地训练的联邦学习过程的教程。除此之外,我们还会强调联邦学习模型训练面对的挑战性的统计问题,并提出联邦学习的协议和开源框架。
- 深度学习
传统的机器学习算法依赖手工设计的特征抽取器来处理原始数据[44]。因此,领域专业知识通常是构建有效机器学习模型的先决条件。此外,必须为每个新问题定制和重新初始化特征选项。另一方面,深度神经网络是基于表象学习的,即深度神经网络自动地从原始数据中发现和学习这些特征[4]。因此深度学习通常优于传统的机器学习算法,特别是在数据丰富的情况下。
深度学习属于大脑启发式计算模式,而神经网络是这种模式的一个重要组成部分[45]。一般来说,神经网络是模拟神经元[46]设计的。它包括三层:(i)输入层;(ii)隐藏层;(iii)输出层。在前馈神经网络中,经过加权和偏差校正的输入值通过非线性激励函数来获取输出[47](图3)。激励函数包括线性整流函数(ReLU)和归一化指数函数(softmax)[42]。典型的深度神经网络包含多个隐藏层,它们将输入映射到输出。例如,为了图像分类而训练的深度神经网络的目标就是生成数值向量作为输出,其中最高数值的位置索引对应输入图像所属的类。因此,训练DNN的目的是优化网络的权值,使损失函数(即理论真实值和模型输出值之间的差异)最小。
在训练之前,数据集首先被分成训练数据集和推演数据集。然后,利用训练数据集作为输入数据,对深度神经网络中的权值进行优化。权值使用随机梯度下降法(SGD)进行校准,其中权值更新值为(i)学习率lr(即每次迭代中权值更新的速度)和(ii)损失函数L相对于权值w的偏导数两者的乘积。SGD公式如下:
注意,(1)式中给出的SGD公式是小批量梯度下降的公式。特别地,公式(2)被导出为B批次平均梯度矩阵,其中每个批次是由m个训练样本组成的随机子集。这比全批次平均梯度公式更优,也就是在计算偏导数时包含整个训练数据集。因为全批次平均梯度公式会导致训练和批记忆速度变慢[49]。梯度矩阵通过输入梯度e的反向传播导出(图3)[46]。
训练迭代在多个阶段中进行重复,即在训练的数据集上进行完整的传递,以实现损失最小化。一个经过优良训练的深度神经网络可以很好地推广,即适用于以前从未见过的数据(例如测试数据集)时,可以获得很高的推演精度。监督学习有其他的替代方法,如半监督学习[50]、无监督学习[51]和增强学习[52],以及一些为适应不同功能而定制的深度神经网络架构,如多层感知器(MLP)[53]、卷积神经网络(CNN)[54]和递归神经网络(RNN)[55]。但本文不进行深入讨论,请对深度神经网络的结构和训练感兴趣的读者参阅参考文献[56]-[61]。接下来,我们将集中到联邦学习上,它是隐私保护和协作深度学习模型训练成为可能的一个重要模式的转变。
- 联邦学习
由于数据所有者对隐私的顾虑,引入了联邦学习的
剩余内容已隐藏,支付完成后下载完整资料
资料编号:[235637],资料为PDF文档或Word文档,PDF文档可免费转换为Word