ChatGPT 的诞生是 AI 行业发展的一个里程碑,让通用人工智能距离全面商用更进一步。
ChatGPT 虽然属于生成式人工智能技术(AIGC)的一种,却可以训练其他 AIGC 产品,比如
充当 AI 画图模型 Midjourney 的提示词分析师。
由于 ChatGPT 的能力过于突出,其母公司 2022 年 11 月发布 ChatGPT3.5 版本后,迅速
吸引大量用户,同时也招来非议,最引人关注的莫过于全球首富马斯克,联合千人请愿全球
停止研发类 ChatGPT 产品。
之所以说马斯克的呼吁吸引眼球,不是因为他反对研发类 ChatGPT 产品,也不是因为他全
球首富的身份,而是因为他呼吁停止研发类 ChatGPT 产品之前,刚表态要自建团队,自备
资金研发类 ChatGPT 产品;其次才是作为世界首富雄厚的财力,稍微出手,便囤了 10000
块 GPU 芯片。
马斯克对 ChatGPT 的表态看似矛盾,但是考虑到马斯克 2015 年还是 ChatGPT 母公司
OpenAI 的联合创始人,2018 年就被现任 CEO" 奥特曼 " 挤走,这种类似吃不到葡萄说葡
萄酸的心里也就容易理解了。更何况马斯克一直站在新兴技术风口上,怎么可能容忍当今最
新潮的技术和自己没关系?
只不过不止一次表态要切入人工智能(AI)赛道的马斯克,为何成立 AI 部门之前先抢了一
万块 GPU(图形处理器)芯片?抢购的又是什么型号的芯片?马斯克买了这一万块芯片,
会不会影响行业供需关系,国内 AI 企业会不会受到影响,最重要地的是,国内有没有能做
GPU 的企业,做到什么地步了?
01.
GPU 如何搅动人工智能行业
马斯克购买一万块 GPU 芯片,主要是因为 GPU 的性能决定了行业天花板,相比于通用的
CPU(中央处理器),GPU 在人工智能行业被细分到 "AI 芯片 " 领域,也就是针对 AI 算法
做了特殊加速设计的芯片。
狭义的人工智能芯片,指的就是专门优化过的显卡。在人工智能刚驶入快车道的 2012 年,
前谷歌计算机科学家 Alex Krizhevsky,使用深度学习 +GPU 的方案在 Image Net LSVRC-2010
图像识别大赛中,将识别成功率从 74% 提升至 85%,在行业内引起广泛关注。
GPU 行业龙头英伟达(NVIDIA)受此启发,投入大量人力物力又优化自家 GPU 的 CUDA
深度学习生态系统,有消息称短短 3 年内,公司 GPU 产品性能提升了 65 倍,甚至还推
出了基于自家 GPU,覆盖后端训练至前端应用的全套方案。
众所周知,GPU 通常被用于图像处理任务,因为图像是由多个像素组成,GPU 想要高效完
成图像处理任务,就需要大量可以完成独立运算的单元,厂商也会极尽可能,在芯片内放入
更多独立计算核心,2018 年发布的英伟达 GTX2080TI 有 4352 个 CUDA 核心,到 2022
年发布的 4090 显卡 CUDA 核心增至 16384 个。本就具备同时大量独立计算的能力,所以
只需要 CPU 给出正确的指令,GPU 自然可以迅速完成深度学习型 AI 产品所需要的超规模