ChatGPT大战陷败局,竟因嫌GPU太贵!Meta用CPU跑AI,点错科技树

preview
共1个文件
docx:1个
需积分: 0 0 下载量 47 浏览量 更新于2023-04-26 收藏 3.26MB ZIP 举报
ChatGPT大战,Meta为何迟迟没有动作? 就在今天,路透社记者挖出了一个大瓜,原因让人瞠目结舌—— 相比谷歌、微软等大厂,Meta跑AI时,用的竟然是CPU! 很难想象,在深度学习几乎占机器学习半壁江山的时代,一个科技巨头竟然能用CPU坚持这么久。 虽然他们也曾尝试过自研AI芯片,但最终遭遇滑铁卢。 现在,ChatGPT引爆的生成式AI大战打得昏天黑地,这就更加剧了Meta的产能紧缩。 用CPU训练AI,Meta怎么想的? Meta迟迟不肯接受用GPU的原因,令人匪夷所思。 GPU芯片非常适合AI处理,因为它们可以同时执行大量任务,从而减少处理数十亿条数据所需的时间。 然而,GPU 也比其他芯片更昂贵,英伟达控制着80%的市场份额,并在配套软件上,也保持着绝对的领先地位。 直到去年,Meta在处理AI工作负载时,主要使用的还是CPU。CPU是计算机的主力芯片,几十年来数据中心用的也是CPU,但它在AI工作上表现并不佳。 据悉,Meta还曾自研芯片,在内部设计的定制芯片上进行推理。 但在2021年,Meta还是失望地发现,比起GPU,这种双管齐下的方法速度更慢、效率更低。而且G