
“我们正处于 AI 的‘iPhone 时刻’。”78 分钟的 GTC 演讲过程中,NVIDIA(英伟
达)创始人兼首席执行官黄仁勋提了三次这一观点。
正当一些行业人士感慨跑一次 GPT4 训练需要庞大的资金成本支持时,英伟达
自己来炸场了。面向迄今历史上用户数量增长最快的应用 ChatGPT,英伟达发
布了包括硬件迭代和云服务一系列组合,核心目的之一,就是加速运算速度、极
大降低成本。
ChatGPT 是迄今历史上用户数量增长最快的应用
图源:英伟达发布会现场展示
黄仁勋表示,类似 ChatGPT 大型语言模型(LLM)的部署是一个重要的全新推
理工作负载,为了支持这类模型推理,英伟达发布一款新 GPU,是带有双 GPU
NVLink 的 H100 NVL。同时基于 NVIDIA Hopper 架构的 H100 配有一个
Transformer 引擎,是为处理驱动 ChatGPT 的类似模型,相比用于 GPT3 处理
的 HGX A100 来看,配备四对 H100 和双 GPU NVLink 的标准服务器速度最高
可达 10 倍。“H100 可以将大型语言模型的处理成本降低一个数量级。”他续称。
为什么在 AI 变革进程中 GPU 尤为重要?这是源于 AI 大模型在训练时,对基础
设施的要求是大规模并行计算,这也是 GPU 相比于其他类型计算芯片如 CPU