没有合适的资源?快使用搜索试试~ 我知道了~
人工智能芯片现状 (2).pdf
8 浏览量
2023-02-07
09:53:59
上传
评论
收藏 2.13MB PDF 举报
。。。
资源推荐
资源详情
资源评论














人工智能芯片研究与产业现状
2010 年以来, 由于大数据产业的发展, 数据量呈现爆炸性增长态势,
而传统的计算架构又无法支撑深度学习的大规模并行计算需求, 于是研究界
对 AI 芯片进行了新一轮的技术研发与应用研究
[1]
。 AI 芯片是人工智能时代
的技术核心之一,决定了平台的基础架构和发展生态。
AI 芯片基本知识及现状
从广义上讲只要能够运行人工智能算法的芯片都叫作 AI 芯片。但是通常
意义上的 AI 芯片指的是针对人工智能算法做了特殊加速设计的芯片
[2]
, 现
阶段, 这些人工智能算法一般以深度学习算法为主,也可以包括其它机器学
习算法。
▲人工智能与深度学习
深度学习算法,通常是基于接收到的连续数值, 通过学习处理, 并输出
连续数值的过程,实质上并不能完全模仿生物大脑的运作机制。 基于这一现
实, 研究界还提出了 SNN(Spiking Neural Network ,脉冲神经网络) 模
型。 作为第三代神经网络模型, SNN 更贴近生物神经网络——除了神经元和
突触模型更贴近生物神经元与突触之外, SNN 还将时域信息引入了计算模型。
目前基于 SNN 的 AI 芯片主要以 IBM 的 TrueNorth 、Intel 的 Loihi 以
及国内的清华大学天机芯
[3]
为代表。
1、AI 芯片发展历程
从图灵的论文《计算机器与智能》 和图灵测试, 到最初级的神经元模拟
单元——感知机, 再到现在多达上百层的深度神经网络,人类对人工智能的
探索从来就没有停止过
[4]
。 上世纪八十年代, 多层神经网络和反向传播算法的

出现给人工智能行业点燃了新的火花。 反向传播的主要创新在于能将信息输出
和目标输出之间的误差通过多层网络往前一级迭代反馈, 将最终的输出收敛到
某一个目标范围之内。 1989 年贝尔实验室成功利用反向传播算法, 在多层神
经网 络 开 发了 一 个 手 写 邮 编识 别 器 。 1998 年 Yann LeCun 和 Yoshua
Bengio 发表了 手写识别神经网络和 反向传播优化相关的论文《 Gradient-
based learning applied to documentrecognition 》,开创了卷积神经网络
的时代。
此后, 人工智能陷入了长时间的发展沉寂阶段, 直到 1997 年 IBM 的深
蓝战胜国际象棋大师和 2011 年 IBM 的沃森智能系统在 Jeopardy 节目中胜
出,人工智能才又一次为人们所关注。 2016 年 Alpha Go 击败韩国围棋九
段职业选手,则标志着人工智能的又一波高潮。从基础算法、 底层硬件、 工
具框架到实际应用场景, 现阶段的人工智能领域已经全面开花。
作为人工智能核心的底层硬件 AI 芯片,也同样经历了多次的起伏和波折,
总体看来, AI 芯片的发展前后经历了四次大的变化。
▲AI 芯片发展历程
(1) 2007 年以前, AI 芯片产业一直没有发展成为成熟的产业; 同
时由于当时算法、数据量等因素, 这个阶段 AI 芯片并没有特别强烈的市场
需求,通用的 CPU 芯片即可满足应用需要。
(2) 随着高清视频、 VR、 AR 游戏等行业的发展, GPU 产品取得快
速的突破; 同时人们发现 GPU 的并行计算特性恰好适应人工智能算法及大
数据并行计算的需求,如 GPU 比之前传统的 CPU 在深度学习算法的运算上
可以提高几十倍的效率,因此开始尝试使用 GPU 进行人工智能计算。

(3) 进入 2010 年后,云计算广泛推广, 人工智能的研究人员可以通过
云计算借助大量 CPU 和 GPU 进行混合运算,进一步推进了 AI 芯片的深入
应用,从而催生了各类 AI 芯片的研发与应用。
(4) 人工智能对于计算能力的要求不断快速地提升, 进入 2015 年后,
GPU 性能功耗比不高的特点使其在工作适用场合受到多种限制, 业界开始研
发针对人工智能的专用芯片,以期通过更好的硬件和芯片架构,在计算效率、
能耗比等性能上得到进一步提升。
AI 芯片的分类及技术
人工智能芯片目前有两种发展路径:一种是延续传统计算架构,加速硬件
计算能力,主要以 3 种类型的芯片为代表, 即 GPU、 FPGA 、 ASIC ,但 CPU
依旧发挥着不可替代的作用; 另一种是颠覆经典的冯·诺依曼计算架构, 采用类
脑神经结构来提升计算能力, 以 IBM TrueNorth 芯片为代表
[6]
。
1、传统 CPU
计算 机工 业从 1960 年代 早期 开始 使用 CPU 这个术 语。 迄今 为止 ,
CPU 从形态、设计到实现都已发生了巨大的变化,但是其基本工作原理却一
直没有大的改变。 通常 CPU 由控制器和运算器这两个主要部件组成。 传统
的 CPU 内部结构图如图 3 所示, 从图中我们可以看到:实质上仅单独的
ALU 模块(逻辑运算单元) 是用来完成数据计算的, 其他各个模块的存在都是
为了保证指令能够一条接一条的有序执行。 这种通用性结构对于传统的编程计

算模式非常适合,同时可以通过提升 CPU 主频(提升单位时间内执行指令的
条数)来提升计算速度。 但对于深度学习中的并不需要太多的程序指令、 却
需要海量数据运算的计算需求, 这种结构就显得有些力不从心。尤其是在功
耗限制下, 无法通过无限制的提升 CPU 和内存的工作频率来加快指令执行
速度, 这种情况导致 CPU 系统的发展遇到不可逾越的瓶颈。
2、并行加速计算的 GPU
GPU 作为最早从事并行加速计算的处理器, 相比 CPU 速度快, 同时比
其他加速器芯片编程灵活简单。
传统的 CPU 之所以不适合人工智能算法的执行, 主要原因在于其计算指
令遵循串行执行的方式,没能发挥出芯片的全部潜力。与之不同的是, GPU
具有高并行结构,在处理图形数据和复杂算法方面拥有比 CPU 更高的效率。
对比 GPU 和 CPU 在结构上的差异, CPU 大部分面积为控制器和寄存器,
而 GPU 拥有更 ALU(ARITHMETIC LOGIC UNIT ,逻辑运算单元 )用于数据处
理,这样的结构适合对密集型数据进行并行处理, CPU 与 GPU 的结构对比
如图 所示。程序在 GPU 系统上的运行速度相较于单核 CPU 往往提升几十倍
乃至上千倍。随着英伟达、 AMD 等公司不断推进其对 GPU 大规模并行架
构的支持,面向通用计算的 GPU( 即 GPGPU , GENERAL PURPOSE GPU ,
通用计算图形处理器 )已成为加速可并行应用程序的重要手段
[7]
。
GPU 的发展历程可分为 3 个阶段, 发展历程:
第 一 代 GPU(1999 年 以 前 ) , 部 分 功 能 从 CPU 分 离 , 实
现 硬 件 加 速 , 以 GE(GEOMETRY ENGINE) 为代表,只能起到 3D 图像
处理的加速作用,不具有软件编程特性。
剩余19页未读,继续阅读
资源评论

lengyue815
- 粉丝: 482
- 资源: 3294

上传资源 快速赚钱
我的内容管理 收起
我的资源 快来上传第一个资源
我的收益
登录查看自己的收益我的积分 登录查看自己的积分
我的C币 登录后查看C币余额
我的收藏
我的下载
下载帮助

会员权益专享
最新资源
- 关于node.js初体验. 如何搭建并完成一个简单的后台, 配合mongodb数据库, 实现信息的增删改查功能
- 第3章课后编程题答案(1).py
- 消费者行为分析-精准营销项目数据集
- update.jsp
- 关于node.js初体验. 如何搭建并完成一个简单的后台, 配合mongodb数据库, 实现信息的增删改查功能
- feimajsq_baidu_1.8.8.apk
- 个人免签支付源码下载-服务监控模块强大后台
- igb-uio源码,igb-uio源码,igb-uio源码
- 纵横支付Q币NDF抖音虎牙YY陪玩支付系统/游戏支付通道/腾讯游戏支付通道/多功能支付系统
- 3 数学4班 李炜健 sy32.py. 使用turtle绘制一个包含九个同心圆的靶盘.py
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈



安全验证
文档复制为VIP权益,开通VIP直接复制
