AI模型数据量和算力需求大。ChatGPT3 相较 ChatGPT2 在数据存储端从百 G 提升至 40T,在存储量上有约 100 倍的提升,算力需求同样也呈几何倍增长。据 OpenA测算,2012 年以来全球头部 AI 模型训练算力需求 3-4 个月翻一番,每年头部训练模型所需算力增长幅度高达 10 倍,远超摩尔定律的增长速度。美光表示,一个典型的人工智能服务器的 DRAM 容量是普通服务器的 8 倍,NAND 容量是普通服务器的3 倍。
AI服务器快速增长,内存技术同步升级。根据 TrendForce,预计 2022 年搭载GPGPU 的AI 服务器年出货量占整体服务器比重近 1%,而 2023 年 ChatGPT 相关应用有望再度刺激 A 相关领域,预计 2023 年出货量增长率可达 8%,2022-2026年复合成长率将达 10.8%。为提升服务器性能,Al 服务器需搭载多个 CPU 处理器,同时服务器 CPU 性能不断升级,要求内存技术同步升级。DDR5、HBM、CXL、NVLink 等内存技术将加速渗透,有望充分受益于 AI 带来的算力需求增长DDR5 需要使用更多内存接口