企业合作,如医疗、金融、天气等,开发面向不同领域的加速产品。截止 2016
年底,与英伟达合作开发深度学习项目的公司已经达到了 19,439 家。除了传统
的互联网巨头公司以外,还有很多创业公司,用于图像识别、语音识别、自然语
言处理、计算机视觉、搜索引擎、医学成像、机器人、数据挖掘等应用加速。
GPU 的高运算性能使其迅速占领 A.I 数据中心市场,完备的生态环境可帮助
其维持霸主地位。从上图可以看出,GPU 的浮点运算能力一直保持着直线上升。
英伟达在 2017 年 GPU 技术大会上发布的全新一代人工智能 GPU 芯片—TeslaV100
能够达到 15Tflops 的单精度浮点性能,7.5Tflops 的双精度浮点性能,可以满
足当前 A.I 深度学习的运算能力。GPU 持续提升的运算能力是其维持在 A.I 数据
中心这一运算密集型应用场景中霸主地位的根本,而面对众多新兴 A.I 芯片的挑
战,GPU 已经建立起的完备的生态环境可帮助其提高防御能力。
GPU 的生态环境有利于其将在训练学习领域(A.I 数据中心)建立的优势延
续至推理应用领域(前端电子产品)。当前 GPU 已经占据了 A.I 数据中心市场,
学习阶段处理器需求已经被 GPU 占领。未来随着 A.I 行业应用的逐渐落地,推理
阶段处理器需求将持续放量。从学习到推理阶段,算法部署的平滑、便捷性是需
要考虑的重要问题。如果从数据中心、云端到前端应用,整个产品线都采用英伟
达的 CUDA 计算平台,可以极大地减少算法跨平台的难度,实现平滑过渡,省去
了变更运行环境所需的协同工作。
相比较而言,无论是 FPGA、还是 ASIC,都尚处于发展阶段。目前有一些公
司基于 FPGA 技术路线或 ASIC 技术路线开发的 A.I 专用芯片,是为满足自身的需
求而进行的个性化开发。典型的就是谷歌的 TPU,公司并没有计划将其做成一款
通用芯片推向市场。有些公司也在基于 FPGA 或 ASIC 开发通用的 A.I 专用芯片,
但是都未达到 GPU 的成熟程度。一款芯片要做的具有通用性,性能稳定优异,需
要较长时间的应用、优化、验证。但是不可否认的是,长期来看,GPU 能耗高、
价格贵等问题也给 A.I 专用芯片留下了机会。A.I 数据中心需求增加。当前深度
学习对海量数据的处理需求,需要专业的 A.I 数据中心来支撑。随着 A.I 的纵深
发展,未来 A.I 数据中心的数据、流量和处理能力也将随之提升,对专业数据中
心需求将会增多。具体表现为:当前许多从事 A.I 研发的互联网巨头,像亚马逊、