没有合适的资源?快使用搜索试试~ 我知道了~
深度神经网络全面概述.doc
1.该资源内容由用户上传,如若侵权请联系客服进行举报
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
2.虚拟产品一经售出概不退款(资源遇到问题,请及时私信上传者)
版权申诉
0 下载量 73 浏览量
2022-07-11
10:53:03
上传
评论
收藏 2.94MB DOC 举报
温馨提示
试读
23页
深度神经网络全面概述.doc
资源推荐
资源详情
资源评论
深度神经网络全面概述从基本概念到实际模型和硬件基础
深度神经网络(DNN)所代表的人工智能技术被认为是这一次技术变革的基石(之一)。近日,由 IEEE Fellow Joel Emer
领导的一个团队发布了一篇题为《深度神经网络的有效处理:教程和调研(Efficient Processing of Deep Neural
Networks: A Tutorial and Survey)》的综述论文,从算法、模型、硬件和架构等多个角度对深度神经网络进行了较为全
面的梳理和总结.鉴于该论文的篇幅较长,机器之心在此文中提炼了原论文的主干和部分重要内容.
目前,包括计算机视觉、语音识别和机器人在内的诸多人工智能应用已广泛使用了深度神经网络(deep neural networks,
DNN)。DNN 在很多人工智能任务之中表现出了当前最佳的准确度,但同时也存在着计算复杂度高的问题。因此,那
些能帮助 DNN 高效处理并提升效率和吞吐量,同时又无损于表现准确度或不会增加硬件成本的技术是在人工智能系统
之中广泛部署 DNN 的关键。
论文地址:https://arxiv.org/pdf/1703.09039.pdf
本文旨在提供一个关于实现 DNN 的有效处理(efficient processing)的目标的最新进展的全面性教程和调查。特别
地,本文还给出了一个 DNN 综述--讨论了支持 DNN 的多种平台和架构,并强调了最新的有效处理的技术的关键趋
势,这些技术或者只是通过改善硬件设计或者同时改善硬件设计和网络算法以降低 DNN 计算成本.本文也会对帮助研
究者和从业者快速上手 DNN 设计的开发资源做一个总结,并凸显重要的基准指标和设计考量以评估数量快速增长的
DNN 硬件设计,还包括学界和产业界共同推荐的算法联合设计。
读者将从本文中了解到以下概念:理解 DNN 的关键设计考量;通过基准和对比指标评估不同的 DNN 硬件实现;理解不
同架构和平台之间的权衡;评估不同 DNN 有效处理技术的设计有效性;理解最新的实现趋势和机遇.
一、导语
深度神经网络(DNN)目前是许多人工智能应用的基础 [1]。由于 DNN 在语音识别 [2] 和图像识别 [3] 上的突破
性应用,使用 DNN 的应用量有了爆炸性的增长。这些 DNN 被部署到了从自动驾驶汽车 [4]、癌症检测 [5] 到复
杂游戏 [6] 等各种应用中。在这许多领域中,DNN 能够超越人类的准确率.而 DNN 的出众表现源于它能使用统计
学习方法从原始感官数据中提取高层特征,在大量的数据中获得输入空间的有效表征。这与之前使用手动提取特征或专
家设计规则的方法不同。
然而 DNN 获得出众准确率的代价是高计算复杂性成本.虽然通用计算引擎(尤其是 GPU),已经成为许多 DNN 处理的
砥柱,但提供对 DNN 计算更专门化的加速方法也越来越热门。本文的目标是提供对 DNN、理解 DNN 行为的各种工
具、有效加速计算的各项技术的概述。
该论文的结构如下:
� Section II 给出了 DNN 为什么很重要的背景、历史和应用。
� Section III 给出了 DNN 基础组件的概述,还有目前流行使用的 DNN 模型。
� Section IV 描述了 DNN 研发所能用到的各种资源。
� Section V 描述了处理 DNN 用到的各种硬件平台,以及在不影响准确率的情况下改进吞吐量(thoughtput)和能
量的各种优化方法(即产生 bit—wise identical 结果)。
� Section VI 讨论了混合信号回路和新的存储技术如何被用于近数据处理(near-data processing),从而解决
DNN 中数据流通时面临的吞吐量和能量消耗难题。
� Section VII 描述了各种用来改进 DNN 吞吐量和能耗的联合算法和硬件优化,同时最小化对准确率的影响。
� Section VIII 描述了对比 DNN 设计时应该考虑的关键标准。
二、深度神经网络(DNN)的背景
在这一部分,我们将描述深度神经网络(DNN)在人工智能这个大框架下的位置,以及一些促进其发展的的概念。我们还将
对其主要的发展历程和现阶段主要的应用领域做一个简单的介绍.
1。 人工智能和深度神经网络
根据 John McCarthy 的论述,深度神经网络(也称为深度学习)是人工智能(AI)大框架下的一部分。而人工智能(AI)是
利用科学与工程学创造具有如同人类那样能实现目标的智能机器.人工智能这个词就是这位计算机科学家在上个世纪
50 年代所创造出的。深度学习和整个人工智能的关系就如下图所示。
图 1:深度学习在人工智能大框架下的位置
2. 神经网络和深度神经网络(DNN)
神经网络从神经元涉及对输入值求加权和进行计算这一概念而获得灵感。这些加权和对应于突触完成值的缩放以及其和
神经元值间的组合。此外,因为计算与神经元级联相关联,并且其为简单线性代数的运算,所以神经元不会仅仅输出加权
和。相反,在神经元中有函数执行组合输入的运算,而这种函数应该是非线性运算.在非线性运算的过程中,神经元只有
在输入超过一定阀值时才生成输出。因此通过类比,神经网络将非线性函数运用到输入值的加权和中。我们等一下会描
述一些非线性函数。
图 2:简单的神经网络例子。(a) 神经元和突触,(b) 为每一层计算加权和,(c) 前向和反向(循环)网络,(d) 全连
接与稀疏
(a)中展示了计算神经网络的示意图。图的前端是输入层,该层会接受输入数据值。这些数据值前向传播到神经网络中
间层的神经元中,中间层也常称为神经网络的隐藏层。一个或多个隐藏层的加权和最终前向传播到输出层,该输出层会
最 终 向 用 户 呈 现 神 经 网 络 的 输 出 结 果 .为 了 将 脑 启 发 的 术 语 和 神 经 网 络 相 匹 配 , 神 经 元 的 输 出 通 常 称 为 激 活
(activation),并且突触如(a)所示通常称为权重(weight)。
在上方表达式中,W_ij 代表着权重、x_i 为输入激活、y_i 是输出激活,而 f(·) 就代表着在 III-2 中描述的非线性激活函
数。
在神经网络的领域内,有一门称为深度学习的研究。普通神经网络基本上层级不会很多,而在深度学习里,神经网络的层
级数量十分巨大,现如今基本上神经网络可以达到 5 到 1000 多层。
3. 推理 vs 训练
这一节中,如图 4 所示,我们将把图像分类用作训练 DNN 的一个强劲的实例。评估 DNN 时,我们输入一个图像,
DNN 为每一个对象分类输出分值向量;分值最高的分类将成为图像中最有可能的对象分类。训练 DNN 的总体目标是
决定如何设置权重以最大化正确分类(来自标注的训练数据)的分值并最小化其他不正确分类的分值。理想的正确分值与
DNN 基于其当前权重计算的分值之间的差被称为损失值(L).因此训练 DNN 的目标是找到一组权重以最小化大型数据
集中的平均损失值。
图 4:图像分类任务
4. 开发历史
� 1940 年代 - 神经网络被提出
� 1960 年代 — 深度神经网络被提出
� 1989 年 - 识别数字的神经网(LeNet)出现
� 1990 年代 - 浅层神经网硬件出现(Intel ETANN)
� 2011 年 — DNN 语音识别取得突破性进展(Microsoft)
� 2012 年 — 用于视觉的 DNN 开始替代人工放大(AlexNet)
� 2014 年+ — DNN 加速器研究兴起(Neuflow、DianNao 等等)
图 5 的表柱是这些年来 ImageNet 竞赛中每届冠军的表现。你可以看到最初算法精确度的错误率在 25% 或更多.2012
年,多伦多大学的 AlexNet 团队通过 GPU 来提升其计算能力并采用深度神经网络方法,把错误率降低了近 10% [3]。
他们的成功带来了深度学习风格的算法的井喷,以及图像识别技术的持续进步。
图 5:ImageNet 竞赛 [10] 结果
5. DNN 的应用
从多媒体到医疗,DNN 对很多应用大有裨益。在这一节中,我们将展示 DNN 正在发挥影响的领域,并凸显 DNN 有望
在未来发挥作用的新兴领域.
� 图像和视频
� 语音和语言
� 医疗
� 游戏
� 机器人
6. 嵌入 vs 云
执行 DNN 推断处理的嵌入平台有着严格的能耗、计算和存储成本限制。当 DNN 推断在云中执行时,语音识别等应
用经常有强烈的延迟需求。因此,在本文中,我们将聚焦于推断处理而不是训练的计算需求。
三、深度神经网络概述
根据应用情况不同,深度神经网络的形态和大小也各异。流行的形态和大小正快速演化以提升模型准确性和效率。所有深
度神经网络的输入是一套表征网络将加以分析处理的信息的值。这些值可以是一张图片的像素,或者一段音频的样本振幅
或者某系统或者游戏状态的数字化表示.
处理输入的网络有两种主要形式:前馈以及循环(图 2c)。前馈网络中,所有计算都是在前一层输出基础上进行的一系列
运作。最终一组运行就是网络的输出,比如,这张图片包括某个特定物体的概率是多少,某段音频出现某个单词的概率
是多少,或者下一步行动的建议等。在这类深度神经网络中,网络并无记忆,输出也总是与之前网络输入顺序无关。
相反,循环网络(LSTM 是一个很受欢迎的变种)是有内在记忆的,允许长期依存关系影响输出。在这些网络中,一些
中间运行生成的值会被存储于网络中,也被用作与处理后一输入有关的其他运算的输入。在这篇文章中,我们关注的是
前馈网络,因为到目前为止,少有人关注硬件加速,特别是循环网络的。
剩余22页未读,继续阅读
资源评论
智慧安全方案
- 粉丝: 3650
- 资源: 59万+
下载权益
C知道特权
VIP文章
课程特权
开通VIP
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功