云辅助移动边缘计算的计算卸载策略_王妍.pdf

所需积分/C币:44 2019-11-21 10:15:27 616KB PDF
56
收藏 收藏
举报

移动边缘计算通过将计算资源迁移至网络边缘来降低时延、缩减能耗,但与云计算相比,边缘计算的计算资源有限,不能满足所有移动服务的需求,针对上述问题,本文提出一种云辅助移动边缘计算(CAME)的计算卸载策略。通过将移动服务建模为具有优先约束关系的工作流模型来分析系统运行过程中的时延和能耗;以系统总代价(时延和能耗的加权和)最小化为研究目标;以遗传算法作为基础算法,部分改进传统遗传算法的编码、交叉、变异等操作,设计了基于改进遗传算法的计算卸载算法(CAMEGA)。仿真结果表明:与All-Local算法、Random算法、ECGA算法相比,CAMEGA算法的系统总代价最小,约为All-Local算法的8.4%、Random算法的43.7%、ECGA算法的30%。
计算机工程 成较高的传输时延,增加能量消耗。为了解决云讣问题表示为一个凸优化问题,实现在满足时延要求 算卸载过稈中面临的高传输时延等问题。移动边缘的条件下,移动设备能耗最小。文献[l3]提出一种面 计算(MEC)应运而生,MEC的核心思想是将服向优先级业务的边缘计算资源分配方法,根据业务 务器的计算和存储资源迁移到移动设备附近,降低价值赋予相应的优先级,对不同优先级的任务进行 移动服务处理过程中的传输时延、处理时延,减少加权资源分配,旨在降低业务的执行时间和能耗。 能量消耗。移动边缘计算是移动云计算的·种特殊文献[l4提岀基于拉格朗凵的计算卸载策略,将移动 情况。 边缘计算框架下的计算卸载问题建模为一个凸优化 在计算卸载问题中,MC和MEC各有利弊,问题,采用拉格朗日乘子法优化移动终端总的计算 适用于不同的移动服务。当面临延迟敏感任务时间和能耗。文献[5]采用云辅助移动边缘计算框 时,MEC以其靠近移动设备,传输延迟短的优点,架,旨在以最小的系统成本保证用户服务质量。文 可以提供比MC更好的服务。处理非延迟敏感任献[6提出了一种新的异构网络两层计算卸载框榘。 务时,则会突出MCC中计算资源丰富的优势。因基于此框架,设计有效的计算卸载方案,以使总体 此,MCC和MEC两者应相互协调、相互补充,确能耗最小化。文献[1l7提出一个云、MEC和LoT集 保计算卸载策略能满足不同的应用场景。 成的融合框架,解决MEC面临的可扩展问题,设计 针对上述问题,本文综合考虑MCC计算资源了一个选择卸载方案,实现在满足时延要求的条件 丰富以及MEC靠近移动设备的优势,提出一种云辅下,移动设备能耗最小。文献[18]提出一种资源优化 助移动边缘计算的计算卸载策略(CAME),在此基础方法来最小化多天线接入点的能耗。文献研究总结 上,设计基于改进遗传算法的计算卸载算法如表1所示。 ( CAMEGA),旨在优化移动服务的运行时间和设备 表1文献研究总结 能耗,从而得到系统总代价较优的计算卸载策略、 云与边缘 文献 优化吋延优化能耗依赖关系 研究现状 协作 文献[6-8] 计算卸载是研究MEC的关键问题之一。近年 文献[9-12] 来,研究人员对MEC中的计算卸载问题进行了大量 研究,并且取得了突破性的进展。这些研究旨在探 文献[13、14]√ 索制定最佳卸载决策,达到降低时延和节省移动设文献15、1y 备能耗的目的。文献[6]中利用马尔科夫链理论分析文献16 给定计算任务的时延,运用一维搜索算法寻找时延文献[18 最小的计算卸载策略。文献[刀研究了移动边缘计算 上述对于移动边缘计算环境下的计算卸载问题 环境下,卸载延时和可靠性之间的权衡问题,利用的研究工作,大部分只是把能耗或时延其中一项作 基于启发式搜索、重构造线性化技术和半定松弛三为优化目标,或者没有考虑任务之间的数据依赖关 种算法,实现系统延时和卸载失败率最小。文献8]系和顺序依赖关系。此外,大部分研究集中于应用 用排队网络的方法分析系统时延,提出一种具有线MEC或MCC来卸载计算任务,并未考虑两者之间 性复杂度的算法,该算法能显著降低系统时延。文的协作。很少有文献在综合考虑以上三种情况的基 献[9]提出了一种基于李亚普诺夫的动态卸载算法,础上,研究计算卸载问题,这就导致设计的卸载策 在满足指定应用程序对时延要求的前提下,实现系略局限性较大。因此,设计一个适用于不同移动服 统节能。文献[0]研究了一个带有能量收集器件的务的计算卸载策略成为计算卸载问题中的难点。为 MEC系统,提出基于李亚普诺夫优化的动态计算卸了解决上述问题,本文提出 CAMEGA计算卸载算 载算法,实现应用程序的行延迟最小。文献[1法。主要工作总结如下 提出一种细粒度卸载策略,将任务卸载问题表示为 (1)综合考虑MEC传输时延低、计算能力有限 个有约束的0-1规划问题,采用BPSO算法,旨而MCC传输时延高、计算资源丰富的特点,提出 在满足严格的延时约束的同时,最大限度的减少能云辅助移动边缘计算的计算卸载框榘CAME)。 量消耗。文献[12研究了由多个用户组成的移动边缘 (2)考虑到任务之间的依赖关系,把复杂的移动 计算卸载系统中的资源分配问题,将最优资源分配服务简化为具有优先约束关系的工作流模型处理 (3)设计了基于改进遗传算法的计算卸载算法地设备执行 CAEMGA)。利用改进遗传算法循环得到最优卸载 移动设备可通过一个六元组 策略,最小化移动服务总的执行时间和能耗。 L=C,F,PPB,P,P,P}表示;其中C为移动设备计 3系统模型 算1bit数据所需的CPU周期数,F为移动设备的计 算能力(每秒CPU周期数,单位为GHZ),P是任 在本章中,主要阐述系统模型。系统模型包括务在本设备执行时的设备功率,P"和P分别是移动 移动服务模型和计算卸载模型。 31移动服务模型 设备与边缘服务器交互时的上传卸载功率,P和 本文主要研究云辅助移动边缘计算环境下,单分别是移动设备与云服务器交互时上传卸载功 用户单个移动服务的计算卸截问题。将复杂的移动率 服务简化为具有优先约束关系的工作流模型处理。 边缘服务器可通过一个二元组E={C,F};其中 用S=(,}表示工作流中任务的集合,n为任C为边缘服务器处理1b数据所需的CPU周期数, 务的数量,用户可以通过调整任务的数量以及任务P 为边缘服务器计算能力 间的依赖关系来模拟各种各样的移动服务。每个任 云服务器可通过一个二元组E={C,F};其中 务被建模为一个二元组{,B};其中a为第i个任务用C表示云服务器处理1bit数据所需的CPU周期 的T作量,/为输出数据量。 数,F为云服务器计算能力。 在移动服务的运行过程中,本地没备输入数据,4问题分析 第一个任务从本地设备获取数据,因此第一个任务 必须在本地设备中执行。类似的,当移动服务运行 完后,应该把输出数据传回本地设备,最后一个任 务也必须在本地执行。 32计算卸载模型 在木地设各牧行 任务在木地 任务在云服 Cloud 卸载至边缘服务器 设备执行 务器执行 卸截至云服务器 图2任务卸载模型 图2展示了一个由9个任务组成的移动服务工 MEC 作流,这9个任务的执行顺序具有优先约束关系, 箭头表示任务执行的先后顺序,这些任务可以在本 地设备、边缘服务器或云服务器中执行。如图3所 示,任务S1、S2、S5、S9在本地执行,S3、S4、 U2 口图3。6 U3 S7在边边缘服务器中执行,S6、S8在云服务器中执 24 本文旨在制定最佳的卸载策略,实现T作流的 执行时间和移动设备的能耗最小。因此,把目标函 图1计算卸载模型 数定义为工作流执行时间和能耗的加权和。 计算卸载模型如图1所示,移动设备通过移动 F=o+(1-o)E 网络连接到基站。当移动设备运行移动服务时,可 其中E为执行工作流服务过程中,移动设备的 以将工作流中的任务卸载到边缘服务器或云服务器总能耗,T为工作流执行的总时间。m为时延权重 执行。边缘服务器和云服务器接收来自移动用户系数,1-m为能耗权重系数。可根据移动服务的 的请求并处理,最后将处理结果返回给移动用户。需求及移动设备的状态来设置;例如,当运行延时 移动用户可以根据移动服务的需求选择任务部分卸敏感型移动服务时,可以适当增加a的值,当移动 载或者完全卸载。如图2所示:用户U3将工作流设备电量不足时,必须没置为较小的值。本文以 中第二个任务卸载至边缘服务器中执行,将第三个时延敏感型移动服务为例,a取0.8。 和卸载至云服务器中执行,第一和第四个任务在本按照如下方式计算目标函数中的分量 计算机工程 (1)任务i在本地执行的计算时间 算法,同时优化任务执行顺序和执行位置。 T 51编码 F 本文采用改进浮点数编码的编码方式。与传统 任务i在本地执行的能耗 的浮点数编码不同的是,分别让浮点数整数和小数 F=7×P (3) 部分映射不同的个体特征,即一种基因型映射两种 (2)任务i从本地卸载至边缘服务器的总时间 表现型,这样编码能够降低算法复杂度,提高运算 aa Ce B (4) 效率。假设n为任务总数,用集合 F 其中六分别为本地设备向边缘服务器发送/X=2……x表示任务执行顺序和执 接收数据的数据传输速率(bit) 行位置,其中整数部分x表示工作流中的某个任务, 任务i从本地卸载至边缘服务器的总能耗 x∈{sn,s,s2xsn}小数部分y表示任务的执行位 置,y=0表示任务在本地设备执行,y=1表示任务 上传 在边缘服务器执行,y=2表示任务在云服务器执 ,下载 行。图3中描述的是编码方案示例。 (3)任务i从本地设备卸载至云服务器的总时间 xY1⑩302①5②406084729 t-a+a, C+B: 图3绸码方案示例图 52适应度函数 其中;、改分别为本地设备向云服务器发送/接 在遗传算法中,适应度是描述个体性能的主要 收数据的数据传输速率(bits) 指标,适应度越大,个体越优秀。根据适应度的大 任务i从本地设备卸载至云服务器的总能耗 小,对个体进行优胜劣汰。本文关注的问题是搜寻 Pkx,上传 最优卸载策略,实现移动服务工作流的执行时间与 E 能耗的加权和最小化。因此,使用目标函数(1)的倒 阝.下 载 数计算工作流的适应度值。 综上所述移动服务运行的总时间和移动设备33初始化 011111111 的总能耗可以表述为 101110111 7=∑T++n 1000 1-10000101 E=∑E+∑E4+∑E9) 0111 10-10 00 5卸裁算法设计 0001 1-1-10 目前,很多研究人员使用智能算法解决优化问 题2。本文选择遗传算法作为基础算法,部分修 图4优先约束矩阵 收传统遗传算法,以满足讣算卸载问题的特殊需求。 由于任务之间有一定的顺序关系,所以借助优 在云辅助移动边缘计算的计算卸载系统中,移先约束矩阵PCM来初始化任务的执行顺序。PCM 动服务工作沆中的每个任务可在不同服务器上执行是一个n×n矩阵,用D表示,D表示工作流中第 (本地、边缘、云),这些服务器具有不同的计算个任务与第j个任务的约束关系。D2-0时表示任 能力,所以不同的执行位置会造成不同的执行时间务i和任务j没有优先约束关系,可以同时执行; 和设备能耗。此外,当工作流中包含大量任务数时,D-1表示任务i必须先执行;D=-1表示任务j必 会出现多个任务同时竞争一个计算资源的情况。因须先执行。可以根据任务的数量及任务之间的具体 此本文采用排序任务的执行顺序来解决这个问题。依赖关系自定义PCM矩阵,图4为图2中9个任务 考虑以上两点,本文主要关注任务的执行位置和执 的优先约束矩阵。 行顺序两组变量,这两组变量相互影响,共同决定 具体的操作步骤为:每次选取没有先序任务或 卸载策略。如果分丌优化每组变量,将不能得到最先序仁务已经排序完毕的任务,即选取优先约束矩 优卸载策略。本文采用改进遗传算法,即嵌套遗传 阵中所有C不等于-1的行数,然后把优先约束矩阵 09.X2121=X2121+x1y2 中与所选取任务相关的行和列都置为0,即选取任 10. end for 务S后,将G、C都置为0。按照此方法继续选取 11.x221=X21Y21+X221 12. fori=l ton+r 下一任务,直到形成一组可行任务序列。循环N次 13. form=l to n 形成初始种群,N为种群规模 14 完成任务执行顺序初始化后,进行任务执行位 15. K12H12=X1212+x12y12 置初始化。随机产生0.0、0.1、0.2中一个数,如果 16. else 产生为0.0,则表示任务在本地设备执行,同理,产 17 X122=X12y2+xy12 生0.1、0.2分别表示在边缘服务器或云服务器中执 18. 行 19.e〃d/or 54交叉 20. fori=lton+r I ton 首先进行任务执行位置的交叉操作,采用传统 if 的单点交叉法。经过交又操作后,得到新的个体 X1y2和X,y1。 接着进行任务排序交叉操作,文献[23]提出了适 X2121=x21-Y2 用于具有先序约束关系的工作流的交叉操作,本文 26 end if 对此稍作改进。在得到的新个体X2H2和x2Y21中随 27. end 机选取交叉点,任务序列中第一个任务到交义点之 28删除X12H2的重复任务 间的任务序列为匹配序列。首先,将X12中的匹配 29删除XY中重复任务 序列加到x2H21前面,将X21中的匹配序列加到 n9频多 XY2,形成两个中间序列X2y2和x2Y1。然后,分 交叉点 别遍历对比x12H2和X1X2、X21和x11中同一任 X22103020524⑩6280729⑩ 务的执行位置基因,若执行位置相同,则保留x11 交叉操作 中的执行位置基因,若不同,则将X21H1中任务的执 030多8 行位置替换为XY2中同一任务的执行位置,形成两 个新的中间序列X1F和XF。这样做的目的是避 囫13·2-34280709 免在对任务执行顺序进行交叉操作时,任务执行位 对比修正 置发生改变。最后分别对x1H2、x22两个个体从 103010如多 开始到最后进行重复任务移除。变异过程如图5所 1⑩3020524⑩62807290 算法1排序交叉算法 夫除重复任务 输入完成位置交叉操作的任务序列 输出完成整体交叉操作的任务序列 xY121c3④2 BEGIN 01.生成[1,n之间的随机数r; X21Y2 3⑩524062807②90 02.X1,Y,=X21yY,1≠之 图5任务执行顺序变异过程 03.X1212-X21Y21≠ 55变异 04. fori=Itor 变异操作是将染色体中的某个基因值做出变 05.X12Y2=x12F121+x2y2 动。首先,随机选取任务序列中一个任务作为变异 06. end for 07.X12Y12=X1212+X1 点,以突变概率决定是否进行变异,若变异,则任 08. for i=lto r 务执行位置变为除当前执行位置之外的任一位置, 即基因小数部分0变为1或2、1变为0或2、2变 为0或1 计算机工程 在执行任务执行顺序的变异操作时,同样需要 表2遗传算法相关参数 考虑任务之间的优先约束关系。首先,从任务集合 参数 数值 XY中随机选取一个任务x,y作为变异点,然后,在 种群数量N 任务集合xY中,以x为中心,分别往正反方向查 交叉概率 0.8 找,直到找到x,所有的先序任务集合 变异概率 {xx,x2y2…,x和后继任务集合{x2,x11x,xy2}。 最大迭代次数 最后,在不包含x的先序任务和后继任务的序列 表3网络仿真参数 {xya,x2yax2…,xya}中,随机选取一个任务,与 设备 参数 数值 xV交换执行顺序。任务执行顺序的变异过程如图 计算能力 6所示。 计算lbit数据所需CPU周期数1000周期bit 计算功率 XY21⑩3⑩2524①6⑩807290 移动设备 向边缘发送数据功率 0.1(W) 前驱任务 后继任务 从边缘下载数据功率 随机造择位置 0.15(W) X2.Y2 向云发送数据功率 13⑩2①52608047290 新位置 从云下载数据功率 0.3(W) 图6任务执行顺序变异过程 计算能力 IO(GHZ 算法2排序变异算法 边绦服务器。计算lbi数据所需CPU周期数200周期bt 输入完成位置变异的任务序列 计算能力 100(GHZ) 输出完成整体变异操作的仁务序列 云服务器计算bt数据所需CPU周期数50周期bit BEGIN 01牛成[,n-1之间随机数r; 任务工作量 服从[1,20之间均匀分布(单位为GHz) 02. fori=l tor 输出数据量 服从[1,50之间均匀分布(单位为Mb) 03.搜索x,y,的先序任务集{x,xV2,xy}; 61任务数变化的影响 04. end for 本节主要研究在不同的工作流任务数量下, 05.fori=r ton-I CAMEGA算法、Al1 Local算法、 Random算法、ECGA 06.搜索xy的后继任务{x,x1,…,xy1; 算法的性能比较。模拟的任务数分别为30、60、90、 07.end for 120和150的情况。如图7所示,可以看出,随着 08得到集合XY={x21y3,x2y2…,xh+ym; 工作流中任务数的增加,系统的总代价逐渐增加 09排出xy当前位置在集合XY屮随机选择位置插入 与 Local算法、 Random算法、ECGA算法相比, 10得到新个体 CAMEGA算法的系统总代价最小,约为 Local算法 END 的8.4% Random算法的43.7%ECGA算法的30% 6仿真实验 因此,在计算卸载问题中, CAMEGA算法有很大的 本章对提出的 CAMEGA算法以及 All-Local算优势。 法、 Random算法、ECGA算法进行了大量仿真对比 4000 o-All-Local 实验。根据有相关文献,遗传算法相关参数由表 RAndom 3000 -E-ECGA 224给出,网络仿真参数由表3给出。 -ECAMEGA All-Local算法:将所有的任务都放在移动设备 2000 执行。 1000 Random算法:在云辅助移动边缘计算的计算卸 载框架下,随机分配任务的执行位置(本地、边缘、 120150 云)和执行顺序。 任务量 ECGA算法:移动边缘计算的计算卸载框架下, 图7任务数变化对系统总代价的影响 基于遗传算法的计算卸载算法。 62时延权重变化的影响 本节仿真了时延权重与能耗权重1-0的比 值大小在|0.01,100时, CAMEGA算法、 Local算法、 3000 一 All-Local ECGA算法三种算法的性能比较。如图8所示,可 2500-v-Random 以看出,针对不同的时延和能耗比值,本文提出的 e-ECGA 宝2000 -E CAMEGA CAMEGA算法得到的结果明显优于其他两种算法 a1500 因此, CAMEGA算法可以更好的适用于需求不同的 H1000 移动服务。 2500 50 All-Local 2000-F-Random 80 120 l60 200 -ECGA 工作量(GHZ) 4 1500-E-CAMEGA 图10工作量变化对系统总代价的影响 1000 本节仿真了任务工作量在[0,200]之间时,系统 总代价的变化。如图10所示,可以看出,随着任务 500 工作量的增加,系统总代价也在逐渐增加。这是因 为在本地设备、边缘服务器、云服务器的计算能力 时延权重/能耗权重 不变的情况下,增加任务的输入数据量必然会导致 图8时延权重与能耗权重的比值对系统总代价的影响 执行时间变长,从而系统总代价变大的情况。同样, 63迭代次数的影响 CAMEGA算法得到的系统总代价明显小于 本节主要研究迭代次数在[0,100时,迭代次数A1- Local算法、 Random算法和ECGA算法得到结 的变化对系统总代价的影响。取移动服务工作流中果。 的任务数N-60。如图9所示,可以看出,随着迭代65任务输出数据量变化的影响 次数的增加,A- Local算法得到的实验结果几乎没 本节主要研究工作流任务的输出数据在[10,50 有变化,基于 CAMEGA算法、 Random算法、ECGA时,四种算法的系统的总代价的变化,如图11所示, 算法的系统总代价值呈下降趋势,迭代次数在对于 Local算法,随肴任务输岀数据量的増加, Local 10、100时,系统总代价的下降趋势较大,迭代次数算法的系统总代价几乎没有变化,这是由于在Dal 超过50以后,系统总代价的变化趋势很小、趋于稳算法中,移动服务中所有任务都在本地执行,不存 定。由此可以得出结论:迭代次数取50时,可以得在数据上传下载过稈,也就不存在传输时延和传输 到较优的实验结果。 能耗。对于 Random算法、 ECGA算法和 CAMEGA 700 子 Randon 算法,任务的输出数据量越大,系统总代价越大。 -E-ECGA 00 日 CAMEGA 这是因为任务的输出数据量对于工作流执行过程中 的上传载的时延和能耗都会产生较大的影响。在 同样的卸载策略下,较大的数据传输量会花费较长 200 的时间。同样,较大的数据传输量会给移动设备带 来更多的传输能耗。 迭代次数 12001-8-All-Local 图9迭代次数对系统总代价的影响 1000 rAndom 64工作量变化的影响 -O-ECGA 80 B-CAMEGA令 604 200 输出数据量(Mb 图11输出数据量对系统总代价的影响 综合图10、11、13、14,可以看出,与 算法、 Random算法、ECGA算法相比,本文提出的 计算机工程 CAMEGA算法均能得到最小的系统总代价。 small cell networks. 2016 Ieee International Confere ncc on Communications Workshops (ICC), Kuala Lum 7结束语 pur.2016,pp.638-643 [12 C. You and K. Luang, Multiuser Resource Allocation 本文针对移动服务的执行时间和移动设备能耗 for Mobile- Edge Computation Offloading, 2016 IEEE Global Communications Conference (GLOBECOM) 的优化问题进行了研究,提出云辅助移动边缘计算 Washington, DC, 2016, pp. 1-6 的计算卸载框架,设计了基于改进遗传算法的计算[13]萤思岐吴嘉慧李海龙屈毓锛,胡磊而向优先级业务的 卸载算法。通过选择、交叉、变异等遗传操作,迭 移动边缘计算资源分配策略「JOL.计算机工程:1-7「201 909-25 代得到最优的卸载策略,实现系统总代价最小。仿[141乐光学朱友康刘建生癜亚盛游真旭徐浩基于拉格朗 真结果表明,与 All-Local算法、 Randon算法、ECGA 日的计算迁移能耗优化策略].电信科学,2018,34(12):1 算法相比, CAMEGA算法可以得到最优的实验结 0-23 果 [15X. Ma, S. Zhang, P. Yang, N. Zhang, C. Lin and x Shen, Cost-Efficient Resource Provisioning in Cloud 在未来的工作中,将考虑包含多个移动设备、 Assisted Mobile Edge Computing, GiLOBECOM 2017 2017 IEEE Global Communications Conference. Sin 多个边缘服务器、多个云服务器的系统中的计算卸 galore, 2017, pp. 1-6 载问题。 [16 DAI Y, XU D, MAHARJAN S, et al. Joint computati on offloading and user association in multi-task mobil 参考文献 e edge computing J]. IEE Transactions on Vehicular LI ZHANG K, LENG S, HE Y, ct al. Mobilc cdgc com Technology,2018,67(12):12313-12325 puting and networking for green and low-latency inter [17 LYU X,TIAN IL,JIANGg L, et al. Selective offloading net of things[]. IEEE Communications Magazine, 201 n mobile edge computing for the green internet of thi 8,565):3945 ngs]. IEEE Network,2018,32(1):54-60 2 QI Y, TIAN L, ZHOU Y, et al. Mobile edge compute [18 WANG F, XU J, WANG X, CUI S GJoint Offloading an ng-assistcd admission control in vehicular nctworks: th d Computing Optimization in Wireless Powered Mobil e convergence of communication and computation[J]. I e-EEdge Computing Systems[ IEEE Transactions on W ER Vehicular Technology ireless Communication, 2018, 17(3): 1784-1797 引施巍松,孙辉,曹杰,等边缘计算:万物互联时代新19]YanY, Xu h, wang B,Yaox. A new dominance r elation-based evolutionary algorithm for many-objective 型计算模型[J.计算机研究与发展.2017,54(5) optimization. IEEE Trans. on Evolutionary Computati 14 HUY C, PATEL M, SABELLA D, et al. Mobile edge computing key technology towards 5GJ. ETSI On,2016,20(1):16-37 White Paper, 2015, 11(11):1-16 [20]郑利阳,刘茜泮移动云计算环境下基于任务依赖的计算 [5]LIU J. MAO Y, ZHANG J, et al. Delay-optimal com 迁移研究[J计算机应用与软件,2019,36(7):1-7+8 putation task scheduling for mobile-edge computing sy [21] Ezhilarasie R, Reddy M S, Umamakeswari A. An stems[C]/2016 IEEE International Symposium on Info ew hybrid adaptive GA-pso computation offloading al rmation Theory, Jul 10-15, 2016, Barcelona, Spain. P gorithm for loT and CPS context application[J]. Journ iscataway: IEEE Press, 2016: 1451-1455 al of Intelligent Fuzzy Systems, 2019: 1-9 T61 J. Liu, Y. Mao, J. Zhang and K. B. Letaief, "Delay-0 [22 Fan Tang B3, et al. Exploiting Joint Co ptimal computation task scheduling for mobile-edge co mputation Offloading and Data Caching to Enhance M mputing systems, 2016 IEEE International Symposium obile Terminal Performance[C]// Globecom Workshops on Information Theory (ISIT), Barcelona, 2016, Pp IEEE,2017. 1451-1455 23] Holland JAdaptation in Natural and Artificial Systems [7 J. Liu and Q. Zhang, Offloading Schemes in Mobile The Univcrsity of Michigan Press, 1975 Edgc Computing for Ultra- Rcliablc low latency Co[24]包了阳,余继周杨杉智能优化算法及其 MATLAB实例 mmunications,"in IEEE Access, vol. 6, pp. 12825-128 [M北京:电子工业出版社,2018 37,2018. [8 X. Ma, S. Zhang, W. Li, P. Zhang, C. Lin and X. Sh en,Cost-efficient workload scheduling in Cloud Assis ted Mobile Edge Computing, 2017 IEEE/ACM 25th In ternational Symposium on Quality of Service (IwQos) Vilanova i la Gcltru, 2017, pp. 1-10 [9] D. Huang, P. Wang and D. Niyato, " A Dynamic Offlo ding Algorithm for Mobile Computing, "in IEEE Tran sactions on Wireless Communications. vol. 11. no. 6 pp.1991-1995,June2012. [10 Y. Mao, J. Zhang and K. B. Lctaicf, Dynamic Comp utation Offloading for Mobile-Edge Computing With E ncrgy Harvesting Dcviccs, in IEEE Journal on Sclcct ed Areas in Communications, vol. 34, no. 12, pp. 359 0-3605,Dec.2016 [11 Maofei Deng, Hui Tian and Bo Fan, " Fine-granularity based application offloading policy in cloud-enhanced

...展开详情
立即下载 低至0.43元/次 身份认证VIP会员低至7折
一个资源只可评论一次,评论内容不能少于5个字
您会向同学/朋友/同事推荐我们的CSDN下载吗?
谢谢参与!您的真实评价是我们改进的动力~
  • 领英

    绑定领英第三方账户获取
  • GitHub

    绑定GitHub第三方账户获取
  • 脉脉勋章

    绑定脉脉第三方账户获得
  • 签到新秀

    累计签到获取,不积跬步,无以至千里,继续坚持!
关注 私信
上传资源赚积分or赚钱
最新推荐