没有合适的资源?快使用搜索试试~ 我知道了~
资源推荐
资源详情
资源评论






移动边缘⽹络中的联邦
学习
摘要
Fl背景和基础
实施挑战与解决⽅案
重要挑战和未来⽅向
介绍
终端设备收集或感知⼤量数据;深度学习的兴起
隐私意识的兴起;集中式延迟较⼤;数据传输困
难
端-边缘云计算⽹络:巨⼤的通信成本、潜在敏感
的数据传输
联邦学习闪亮登场
优势
⾼效利⽤⽹络带宽:只发送更新后的模型参数
在⽆恶意的假设下,⽤户隐私得到增强
低延迟
应⽤
⾕歌使⽤fedavg进⾏下⼀词预测
健康诊断模型、促进医院与政府机构之间的合作
潜能 作为优化移动边缘的使能技术
亟待解决的挑战
通信成本:⾼维模型、参与设备的有限带宽
异质性:数据质量、计算能⼒、参与意愿
隐私与安全:可能存在恶意参与者对其他参与者
的信息进⾏推理
前⼈⽂章通常将fl与mec分开对待
论⽂贡献
激励fl作为实现协作ml模型训练的重要范式的转
变的重要性(?)
讨论fl相对于集中式ml的独特特性;展示对于⼀
些困难的现有解决⽅案
讨论fl作为移动边缘⽹络优化的使能技术
讨论了fl⾯对的挑战以及研究⽅向
分类讨论
致⼒于解决联邦学习的基本问题
研究将fl作为应⽤⼯具来解决边缘计算问题
背景与基础
DNN
前情提要:传统ml依赖⼈⼯设计的特征提取器,
故需要领域专业知识,⽽且必须为每个新问题定
制和重新启动特征选择。
组成
输⼊层
隐藏层
输出层
随机梯度下降
常⻅类型
MLP(多层感知机)
CNN(卷积):⽤于CV任务
RNN(循环):⽤于顺序任务
Federated Learning
经典系统结构和训练过程(参与者是诚实的)
三个步骤
任务初始化:服务器确定训练任务、指定超参数
和训练过程;将初始化的全局模型和任务⼴播给
参与者。
本地模型训练和更新
全局模型聚合和更新
统计学挑战与部分解决⽅案
⾮独⽴同分布的数据
全局不平衡,即参与者数据的收集类不平衡
借鉴多任务学习的概念:MOCHA算法
FEDPER:fl参与者共享⼀组使⽤FedAvg训练的
基础层,然后再使⽤本地数据分别训练⼀组个性
化层。适⽤于考虑不同偏好的推荐系统的构建。
收敛性
FedProx:可以⾃适应调整,当训练损失增加
时,可以调整模型更新以减少对当前参数的影
响。
LoAdaBoost FedAvg:本地模型训练完成后将交
叉熵损失与前⼀轮训练的中值损失⽐较,当交叉
熵损失较⼤时则在模型聚合前对模型进⾏重新训
练。
fl协议和框架
三个阶段
选择:服务器选择⼀个参与设备⼦集来进⾏模型
训练。
配置:根据⾸选的聚合机制对服务器进⾏配置,
然后服务器发送训练计划和全局模型。
报告:服务器接收来⾃参与者的更新后进⾏模型
聚合。
通信安全
安全聚合:防⽌本地更新被追踪并被⽤来推断fl
参与者的身份,需要部署⼀个虚拟可信的第三⽅
服务器
差异隐私性:阻⽌fl服务器识别本地更新的拥有
者。在对模型质量提供理论保证的同时在原有的
局部更新中增加了⼀定程度的噪⾳。
框架
TensorFlow Federated:⾕歌开发,⽤于去中⼼
化和其他分布式计算。
PySyft:基于PyTorch。⽤于在不受信任的环境中
执⾏加密的、保护隐私的DL和相关技术的实现。
LEAF:开源的数据集框架
FATE:微众银⾏开发的开源框架,⽀持ML模型
的联邦和安全实现。
FL特点
通信缓慢且不稳定:通信环境并不完美,⽆线通
讯渠道不稳定的参与者可能因为⽆法连接互联⽹
⽽退出。
异构设备:设备可以具有不同的计算能⼒、CPU
状态、电池状态和参与意愿。
隐私和安全问题:参与者与服务器可能是恶意
的。
FL实施中的实际问题
统计挑战
通信成本
资源分配
隐私和安全
通信成本
限制瓶颈
⾼维模型
参与设备的⽹络状况不可靠
互联⽹连接速度不对称
降低通信成本的⼏种⽅法
边缘和末端计算
增加参与设备上的计算量
增加并⾏性:选择更多的参与者参与每⼀轮训练
仿真结果显示⼀旦达到⼀定的阈值,提⾼并⾏度
并不能显著降低通信成本。
增加每个参与者的计算量,即每个参与者在进⾏
全局聚合通信前执⾏更多的本地更新。
对于MINIST CNN,FedAvg在IID数据上可以将
通信次数减少30倍以上,在non-IID上效果不太
显著;LSTM即使对于non-IID数据,改进也很显
著(95.3倍)。
联邦随机块坐标下降算法:每个参与设备在进⾏
全局聚合通信之前先进⾏多个局部更新。
改进训练算法来提⾼收敛速度
双流fl:通过最⼩化局部模型和全局模型之间的
MMD损失,参与者可以从全局模型中提取更多的
⼴义特征。
分层fl:边缘计算启发范式,临近的边缘服务器
可以作为中间参数聚合器。在预定义数量的边缘
服务器聚合之后,边缘服务器与云通信以进⾏全
局模型更新。
HierFAVG对凸函数和⾮凸函数在non-IID⽤户数
据条件下的收敛。
在应⽤于non-IID数据时,如果边缘云发散较⼤
或者涉及许多边缘服务器时,HierFAVG未能收
敛到所需的精度。
HierFAVG仍然是在移动边缘⽹络上实现FL的⼀
种有前途的⽅法,因为它利⽤中间边缘服务器的
接近性来降低通信成本、减轻云的负担。
模型压缩:可能会引⼊噪声,故⽬标是在保持训
练模型质量的同时减少每轮传输的更新的⼤⼩。
结构化更新
低秩结构
随机掩码结构
草图更新:在与服务器通信之前以压缩形式对更
新进⾏编码
⼦抽样⽅法
概率量化⽅法
基于重要性的更新:在每⼀轮通信中只传输重要
或相关的更新。
边缘随机梯度下降
仅选择⼀⼩部分重要梯度,在每⼀轮通信中与服
务器通信进⾏参数更新
在两个连续的训练迭代中跟踪损失值,如果当前
的损失值⼩于先前,则将当前训练的梯度和模型
参数的隐藏券中分配为正值;反之,选择其他基
于它们的隐藏权重进⾏更新。
精度与SGD相⽐有所下降;精度与收敛速度基于
超参数随意波动
通信缓解联邦学习
只上传相关的局部模型更新
在每次迭代中,⾸先将参与者的本地更新与全局
更新(聚合之前全局未知,所以⽤先前迭代轮次
中的全局更新)进⾏⽐较,计算相关性得分(局
部和全局更新中相同符号参数的百分⽐)。
总结
通信成本、移动设备上传速度缓慢
权衡精度或收敛速度等的牺牲与通信成本的降低
更有效的优化⽅法在理论上正式化并经过经验测
试
从MEC范式中的应⽤和⽅法找灵感
在通信之前执⾏更多本地更新的⽅法存在更⼤的
计算成本⽀出与掉队者效应
资源分配
不同的数据集质量、计算能⼒、电量状态与参与
意愿;考虑到设备的异质性和资源限制,即能量
状态和通信带宽,必须优化资源分配
参与者选择
通常服务器随机选择⼀组参与者,聚合该轮所有
参与者的参数更新后才能聚合模型,故FL训练进
度受最慢参与者训练时间的限制
FedCS
服务器为后续的全局聚合阶段选择能在预定截⽌
⽇期内完成训练的最⼤可能数量的参与者。使⽤
贪⼼算法,迭代选择模型上传和更新花费时间最
少的参与者。
在简单的DNN模型上实现了更⾼的准确性;但是
复杂模型选择较少参与者会导致模型表现不佳,
⽽且仅选择计算能⼒更好的设备⽆法保证数据的
代表性。
混合FL协议扩展版
将公开可⽤的数据分发给参与者,但是不⼀定总
是存在这样的数据,⽽且出于安全原因,参与者
可能不会下载数据。
使⽤有限数量的对隐私不敏感的参与者的输⼊构
建近似IID的数据集,但是可能会侵犯⽤户隐私和
安全,⽽且对于视频和图像来说成本⾼昂,参与
者可能不会⾃愿上传数据。
双深度⽹络
DRL:在没有移动⽹络的先验知识的情况下,FL
服务器能够优化参与者之间的资源分配,例如信
道选择和设备能耗。
q-FFL算法:对FedAvg中的⽬标函数进⾏重新加
权,但对于算法的⼀些校准,由于掉队者会延迟
训练过程,故收敛速度可能减慢。
基于神经⽹络的⽅法估计训练过程中被遗漏的FL
参与者的局部模型。
联合⽆线电和计算资源管理
本地模型传输是FL的⼀个组成部分,但许多设备
仍⾯临⽆线电资源短缺问题
正交频分多址OFDMA
正交化带宽分配,通信延迟与参与者数量成正⽐
地增加
多址宽带模拟聚合BAA
允许重⽤整个宽带,延迟与参与者数量⽆关
信噪⽐的瓶颈是具有最⻓传播距离的参与设备,
然⽽为了提⾼信噪⽐丢弃传播距离较远的参与者
会造成模型参数截断
三种调度⽅案
⼩区内部调度
全包调度
交替调度
误差累积和梯度稀疏化以及空中计算
将未传输的梯度向量存储在误差累积向量中,在
下⼀轮中使⽤误差向量对局部梯度进⾏校正。
当存在带宽限制时,参与设备可以应⽤梯度稀疏
化,仅保留具有最⾼幅度的元素⽤于传输
通过空中计算集成计算和通信
计算过程中产⽣的聚合误差可能会导致信号失
真,导致模型精度下降
参与者选择算法
最⼤化选择⽤于训练的设备的数量,同时将信号
失真保持在阈值以下
⾃适应聚合
传统⽅法全局聚合是同步的,在所有参与者完成
⼀定数量的局部计算后,全局聚合以固定的间隔
发⽣,故可以研究全局聚合频率⾃适应校准的⽅
法。
同步联邦 ⾃适应全局聚合
局部更新阶段
边缘聚合阶段
全局聚合阶段
⾃适应选择最优全局聚合频率的控制算法:如果
全局聚合过于耗时,那么启动与FL服务器之前将
进⾏更多的边缘聚合。
异步联邦
激励机制
FL实际实施中参与者可能不愿意在没有获得补偿
的情况下参与联合训练,因为训练需要消耗资
源,故可以设计激励机制激励参与者并减少信息
不对称。
服务定价⽅案
参与者作为模型所有者的培训服务提供商
为了克服模型更新传输中的能量效率低下问题,
提出⽀持模型更新传输和交易的合作中继⽹络
基于DRL的⽅法与Stackelberg共同使⽤
使⽤合同理论的激励设计
通过⾃我揭示机制来减少信息不对称
参与者只选择专⻔为其类型设计的合同,每份合
同必须满⾜个⼈合理性和激励相容性
引⼊声誉作为可靠性指标
每个参与者有两个来源的信誉值
过去与FL服务器交互的直接信誉
来⾃其他任务发布者(FL服务器)的间接信誉,
其中间接信誉意⻅存储在开放访问的信誉区块链
中
训练过程
参与者选择最适合其数据集和资源条件的合同
FL服务器选择信誉得分⼤于预先设定的阈值的参
与者
FL任务完成后,即达到预期的准确性后,FL服务
器更新信誉意⻅
不可靠的参与者被检测到进⽽⽆法参加FL训练,
故可以显著提⾼FL模型的准确性
总结
异构⽹络中,资源分配对于确保⾼效的FL⾮常重
要
考虑不同的权衡
异步联邦学习的优缺点与研究前景
激励机制设计
使⽤⾃我揭示机制、应⽤博弈论概念建模服务器
和参与者之间的互动
参与者之间可能存在竞争、服务器之间也可能存
在竞争
隐私和安全问题
隐私问题
恶意参与者可以通过其他参与者共享的模型推测
出敏感数据
机器学习中的信息利⽤攻击
在训练阶段,训练样本中隐含的相关性被收集到
训练模型中,故攻击者可以通过发布的模型反演
输⼊的信息。
攻击者通过对预测模型的查询来推断受害者的信
息
FL参与者基于差分隐私的保护解决⽅案
差分隐私随机梯度下降技术
在将参数发送给服务器之前,通过使⽤差分隐私
保护随机机制,例如⾼斯机制,向训练的参数中
添加⼀些噪声
在训练阶段,参与者不断计算恶意参与者可以利
⽤其共享参数中的信息的概率,⼀旦达到预定阈
值,参与者将停⽌训练过程
⼀种更好的⽅法
对于每⼀轮学习,服务器⾸先选择随机数⽬的参
与者来训练全局模型;参与者采向训练模型中添
加噪声的⽅法;于是恶意参与者因为⽆法得知谁
参与了这⼀轮运算⽽⽆法推断其他参与者的信息
协作培训解决⽅案
虽然DP(差分隐私)⽅案可以保护诚实参与者的
私⼈隐私不受FL中其他恶意参与者的攻击,但是
如果服务器是恶意的,肯能会产⽣更⼤的威胁。
协作DL框架
每个参与者明智地选择要上传的梯度数量和要更
新的全局模型中的参数数量,⽽不是上传整个训
练参数集或者将整个全局模型参数更新到本地模
型。
即使参与者没有共享全部、更新全部,该解决⽅
案仍然接近服务器拥有所有数据来进⾏全局模型
的准确率
强⼤攻击
基于⽣成对抗性⽹络
允许恶意参与者从受害者那⾥推断敏感信息
使⽤带有极限提升算法的秘密共享⽅案,但需要
依赖可信的第三⽅来⽣成签名密钥对
协作训练模型
所有参与者合作训练联合GAN模型,取代参与者
的真实数据,但是⽣成的假数据会导致训练的不
稳定
基于加密的解决⽅案
同态加密技术
在将参与者的训练参数发送到服务器之前,将使
⽤同态加密技术对其进⾏加密,使其免受诚实但
好奇的服务器的攻击
但是需要多轮通信,不能排除服务器和参与者之
间的串通
集成FL中的加性同态加密和DP
在将训练参数发送到服务器之前,使⽤加性同态
密码机制和有意的噪声对其进⾏加密
防⽌好奇的服务器利⽤信息,解决服务器与恶意
参与者之间的共谋问题
安全问题
恶意参与者可能发送不正确的参数或损坏模型,
进⽽破坏整个学习系统
数据中毒攻击
由于服务器很难检查参与者的真实训练数据,恶
意参与者可以创建脏标签数据来训练全局模型,
⽬的是⽣成伪造的参数毒害全局模型。
sybil攻击
恶意参与者通过创建多个恶意参与者来提⾼数据
中毒在训练全局模型中的有效性
防御策略FoolsGold:根据诚实的参与者更新的
梯度将其与sybil参与者区分开
模型中毒攻击
恶意参与者破坏它发送到服务器进⾏聚合的全局
模型
⼀些有局限的解决⽅案
基于参与者共享的更新模型是否对全局模型的性
能提升有负⾯效果进⾏标记
基于参与者共享的更新模型之间的⽐较,标记差
异过⼤的参与者
后⻔攻击
使⽤语义后⻔函数来注⼊全局模型,即使不需要
修改恶意参与者的输⼊数据,该函数也会使全局
模型错误分类
例如,图像分类后⻔函数可以将攻击者选择的标
签注⼊到具有某些特定特征的所有图像中,如所
有具有⿊⾊条纹的狗都可能被分类为猫
搭便⻋攻击
当参与者想要从全局模型中受益⽽不参与学习过
程,恶意参与者可以假装其需要训练的样本数量
⾮常少。
BlockFL
基于区块链的FL架构,参与者的本地学习模型更
新通过利⽤区块链技术进⾏交换和验证;参与者
训练并发送模型后会获得与训练后的数据样本数
量成正⽐的奖励
防⽌参与者搭便⻋、激励所有参与者为学习过程
做贡献
实施和维护需要巨⼤成本、使⽤协商⼀致协议会
带来很⼤的延迟
总结
恶意参与者可以利⽤联邦学习过程推断其他参与
者的敏感信息
恶意攻击者可以通过数据中毒、模型中毒及搭便
⻋等攻击破坏全局模型
⼀些攻击与相关策略
联邦学习在移动边缘⽹络计算中的应
⽤
⽤户的私⼈数据在性质上可能是敏感的,故现在
的⽅法可以与FL相结合⽤于隐私保护
⽹络攻击检测
物联⽹设备的普遍存在和⽹络攻击⽇益复杂意味
着有必要改进现有的⽹络攻击检测⼯具。
DL
⾼精度检测攻击的最有效⼯具
很⼤程度上取决于可⽤的数据集,在数据敏感时
存在局限性
边缘⽹络应⽤联邦学习,每个边缘节点都作为拥
有⼀组⼊侵检测数据的参与者进⾏操作
物联⽹⽹关作为FL参与者运⾏,物联⽹安全服务
提供商作为服务节点来聚合训练模型
考虑到可能存在恶意参与者,可以使⽤区块链技
术来管理参与者共享的数据
边缘缓存和计算卸载
终端设备的计算密集型任务必须卸载到远程云服
务器;⽤户通常请求的⽂件或服务应该放在边缘
服务器
DRL结合FL
对于缓存,DRL代理决定缓存或不缓存下载的⽂
件以及发⽣缓存时替换哪个⽂件
对于计算卸载,⽤户设备可以选择将任务卸载到
边缘节点或者在本地执⾏
基于FL的主动内容缓存⽅案(FPCC)
每个⽤户配备⼀个连接到基站的移动设备,使⽤
堆叠的⾃动编码器学习模型学习⽤户信息的潜在
表示
基于⽤户与其历史请求⽂件之间的相似性矩阵,
确定⽤户的K个邻居。
计算⽤户的历史观察列表和邻居的历史观察列表
的相似度,使⽤聚合⽅法来预测最受欢迎的缓存
⽂件
采⽤FL来学习堆叠式⾃动编码器的参数,⽽⽤户
不必向FL服务器透漏个⼈信息或历史请求历史
可以实现最⾼的缓存效率的同时保留了⽤户的隐
私
隐私感知服务放置⽅案
由为各种移动设备提供服务的移动边缘云组成
基于FL训练偏好模型(基于诸如请求服务的次
数、年龄及位置等⽤户信息)
使⽤贪⼼算法优化问题,⽬标是根据⽤户偏好,
在存储容量、计算能⼒、上⾏链路和下载带宽的
约束下,最⼤限度地增加边缘所需的服务量
基站关联
密集⽹络中,优化基站关联以限制⽤户受到的⼲
扰是很重要的
基于FL的深度回波状态⽹络
当⽤户运动阻碍⽆线链路时,可能会导致信息传
输延迟
基站从相关联的⽤户接收跟踪信息,如物理位置
和⽅向等,对于数据传输,⽤户必须与其中⼀个
基站相关联。为了得出⽤户位置和⽅向的预测,
基站必须依赖于⽤户的历史信息
基于FL,每个基站使⽤其部分数据训练局部模
型,然后将模型聚合以形成能够泛化的全局模
型。综合预测⽤户的移动性和取向
协作学习
在系统模型中,基站覆盖蜂窝系统的⼀组⽤户。
在蜂窝系统中,⽤户可能⾯临与其邻居类似的信
道条件,因此可以从已经与基站关联的邻居那⾥
学习
⼩区关联问题被公式为具有模仿的平均场博弈,
其中每个⽤户最⼤化其⾃身的吞吐量,最⼩化模
仿成本
博弈问题进⼀步简化为单⽤户的⻢尔科夫决策过
程,通过神经Q学习算法求解
在⼤多数问题中,假设基站和⽤户都知道所有信
息。但考虑到隐私问题,这是不合理的,故使⽤
协作学习⽅法在学习过程中仅交换学习算法的结
果
⻋辆⽹络
在⻋联⽹⽹络边缘的电动汽⻋充电站中使⽤基于
FL的⽅法
极值理论
需要⾜够的队列状态信息样本和⻋辆之间的数据
交换
FL⽅法
⻋辆⽤户利⽤本地保存的数据训练学习模型,并
仅将其更新的模型参数上传到路侧单元,路侧单
元聚合后再将全局模型返回给⻋辆⽤户
同步⽅法中可能会出现延迟
不同于异步的是,每个⻋辆⽤户仅在收集了预定
义数量的队列状态信息后进⾏评估并上传模型参
数;每当接收到本地更新时,全局模型也会更新
为了进⼀步减少开销,使⽤了⽤于功率分配的
Lyapunov优化
交通优化
⻋辆可以接触到⼤量有⽤的捕获图像,这些图像
可以建⽴更好的推理模型。
由于这些图像可能会泄漏⻋辆客户端的位置信
息,所以可以使⽤FL⽅法⽤于促进协作ML
由于运动模糊,捕获图像的质量往往不同;⻋辆
计算能⼒也存在差异。 考虑到信息不对称,提出了⼀种多维合同设计。
联合能源需求学习⽅法
⼤量汽⻋聚集在电动汽⻋充电站时可能会导致能
源传输拥堵
为了解决上述问题,从电⽹提前预留能量以满⾜
电动汽⻋的实时需求。因此需要使⽤历史充电数
据来预测能源需求。
由于历史数据仅存在每个充电站中且本质是私有
的,故采⽤FEDL⽅法进⾏联合模型训练。
然⽽由于⽤户数据存储在充电站中,仍然⽆法保
护⽤户的数据隐私问题。故可扩展为将⽤户数据
单独被存储在每个EV中,并且模型训练在EV中
进⾏,可以允许更多的⽤户特征来增强模型准确
性
总结
FL可以⽤于移动边缘⽹络优化,特别是DL、DRL
⽅法适⽤于对⽇益复杂的边缘⽹络的动态环境进
⾏建模,但需要⾜够多的数据
8 挑战与未来研究⽅向
推出的参与者
实际中可能由于连接或能量限制,参与的设备会
离线或退出系统
⼤量丢弃的设备会导致FL性能显著降低,如精度
和收敛速度
隐私问题 平衡隐私保证和系统性能
未标记的数据
实际中⽹络⽣成的数据可能未标记或者标记错
误,这给服务器寻找具有适当数据的参与者进⾏
模型训练带来巨⼤挑战。
⼀种可能的解决⽅案是使移动设备能够通过相互
学习“标记数据”来构建标记数据
移动设备之间的⼲预 移动设备可能在地理上彼此靠近
通信安全
由于⽆限介质的暴露性质,FL容易
!
通信安全
问题的影响
如分布式拒绝服务和⼲扰攻击,其中⼲扰攻击可
以破坏或⼲扰移动设备与服务器之间的通信,导
致模型传输错误进⽽影响性能。
可以采取调频之类的抗⼲扰⽅案,如在不同频率
上发送模型更新副本
异步FL 异步⽬前还⽆法保证收敛性,应该探索新的算法
与其他分布式学习⽅法的⽐较 分割学习
关于学习收敛性的进⼀步研究
FL找到权重以最⼩化全局模型聚合,这实际上是
⼀个分布式优化问题,收敛性不⼀定总有保障。
使⽤⼯具量化统计异质性
为了提⾼FL算法的收敛性,需要对数据的统计异
质性进⾏量化
通信减少的组合算法
模型压缩技术可以与边缘服务器辅助FL相结合,
但是可⾏性尚未得到讨论
协作移动群组ML
附近的移动设备可以分组在同⼀个集群中,服务
器和移动设备之间的模型传输可以通过充当中继
节点的集群头来促进
FL的应⽤
医疗保健、⾦融和交通系统
通信成本、资源分配以及隐私安全,还需要考虑
训练效率及能源问题
总结
MEC简介,FL作为移动边缘⽹络协作模型训练的
赋能技术
DNN基本原理,FL以及FL⼤规模系统设计
FL实施问题
通信成本
资源分配
数据隐私
数据安全
FL在保护隐私的移动边缘⽹络的实现
挑战与未来⽅向
图例
Priority 4
Priority 5
Priority 6
Priority 7
资源评论


千恦
- 粉丝: 1
- 资源: 2
上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助


会员权益专享
安全验证
文档复制为VIP权益,开通VIP直接复制
