没有合适的资源?快使用搜索试试~ 我知道了~
电子行业深度研究-AI算力需求持续释放-重点看好AI服务器产业链-天风证券.pdf
需积分: 0 0 下载量 37 浏览量
2023-08-14
11:57:04
上传
评论
收藏 2.92MB PDF 举报
温馨提示
试读
29页
电子行业深度研究-AI算力需求持续释放-重点看好AI服务器产业链-天风证券.pdf
资源推荐
资源详情
资源评论
行业报告 | 行业深度研究
请务必阅读正文之后的信息披露和免责申明 1
电子
证券研究报告
2023 年 06 月 14 日
投资评级
行业评级
强于大市(维持评级)
上次评级
强于大市
作者
潘暕
分析师
SAC 执业证书编号:S1110517070005
panjian@tfzq.com
俞文静
分析师
SAC 执业证书编号:S1110521070003
yuwenjing@tfzq.com
资料来源:聚源数据
相关报告
1 《电子行业点评:苹果 MR 发布在即,
重点推荐相关产业链》 2023-05-31
2 《电子行业深度研究:电子行业 23Q1
总结:有望进入复苏周期》 2023-05-21
3 《电子行业深度研究:AI 赋能制造业
道路,传统安防龙头估值逻辑切换》
2023-04-09
行业走势图
AI 算力需求持续释放,重点看好 AI 服务器产业链
AI 服务器直接受益于需求端增长,Nvidia 高速互联助力 AI 运算。2018 年
至今,模型升级带来参数量指数级增加,AI 训练+推理段模型需求催生 AI
服务器海量需求(训练阶段算力需求=6×模型参数数量×训练集规模),按
照 A100 640GB 服务器参数假设,据测算,训练端需要服务器数量为 3423
台/日,推理端按照 1 亿活跃用户测算对应成本为 4000 万美元,并随着用户
量和访问互动量上升,算力需求持续提升。此外,Nvidia 高速互联助力 AI
运算,800G 交换机陆续发布,下一代超宽互联蓄势待发。
AI 重塑服务器行业格局,ODM 模式/厂商受益于 AI 服务器增长。根据
Statista 数据,2021 年全球服务器市场规模达到 831.7 亿美元,同比增长
6.97%,其中 AI 服务器市场达到 156.3 亿美元,同比增长 39.1%。AI 服务器
有望成为增速最快的细分板块,预计 AI 服务器市场将在 2026 年达到 347.1
亿美元,5 年 CAGR 达到 17.3%。ODM 模式/厂商受益于 CSP 客户增量,2022
年出货的服务器中 ODM 生产的市占率或达 50%。全球 ODM 厂商竞争格局
集中度高,CR5 高达 94.4%,分别为鸿海/工业富联(43%)、广达(17%)、纬
创(14%)、英业达(12.8%)和超微(7.6%)。
AI 服务器放量预期利好上游核心部件。AI 服务器销量增加将拓宽上游核心
零部件的增量市场,尤其是 AI 芯片(GPU、ASIC 和 FPGA)、存储器、固态
硬盘等。其中,国内上游环节的国产替代程度不一。我们认为国内处于乐观
机遇期的有 AI 服务器制造厂商、服务器用 PCB 厂商、DRAM 厂商和散热厂
商,PCB 和 DRAM 的服务器领域均是行业实现扩产和开拓市场的重点所在;
制约瓶颈为人工智能芯片,仍被国外厂商垄断,有望实现突破的环节为先进
封装 Chiplet,或成为我国算力困境的关键转折点。
投资建议:建议关注 AI 服务器及上游产业链相关标的:1)AI 服务器龙头:
工业富联;2)服务器 PCB:鹏鼎控股;3)服务器线束与连接器:电连技术、
兆龙互连;4)算力芯片:寒武纪、海光信息(天风计算机团队覆盖)、景嘉
微(天风计算机团队联合覆盖);5)存储供应链:兆易创新、北京君正、江
波龙(天风计算机团队联合覆盖)、澜起科技、雅克科技、鼎龙股份(天风
化工团队联合覆盖)、华懋科技(天风汽车团队联合覆盖)、华特气体;6)
边缘 AI:瑞芯微、晶晨股份、全志科技、恒玄科技、富瀚微、中科蓝讯、
乐鑫科技;7)AI to B/机器视觉:大华股份、海康威视、鼎捷软件(天风计
算机团队覆盖)、凌云光、天准科技、舜宇光学、海康威视、奥普特(天风
机械军工团队覆盖);8)Chiplet:长电科技、通富微电、华天科技、长川科
技(天风机械团队覆盖)、华峰测控(天风机械团队覆盖)、利扬芯片、芯碁
微装、伟测科技
风险提示:中美贸易摩擦导致上游原材料断供、AI 服务器出货不及预期、
技术瓶颈仍未摆脱
-17%
-12%
-7%
-2%
3%
8%
13%
2022-06 2022-10 2023-02 2023-06
电子
沪深300
行业报告 | 行业深度研究
请务必阅读正文之后的信息披露和免责申明 2
内容目录
1. 人工智能服务器为算力支撑,助燃 AI 产业化 ........................................................................ 4
1.1. 从通用服务器到 AI 服务器的过渡 ............................................................................................ 4
1.2. AI 服务器与普通服务器相比有着明显的性能优势 .............................................................. 4
1.3. AI 服务器的进步源于芯片,未来将关注更多功能性 ......................................................... 5
2. 庞大算力需求是 AI 服务器未来放量的关键驱动力 ................................................................ 6
2.1. AI 模型优化迭代引发算力缺口,未来推理功能将需更多算力 ....................................... 6
2.2. AI 服务器作为承载算力主体将受益,成服务器市场的增长主力 .................................. 8
2.3. Nvidia 高速互联助力 AI 运算,多 GPU 通信成为关键技术 ........................................... 11
3. AI 服务器放量预期利好上游核心部件,挑战机遇共存 ....................................................... 19
3.1. 危机四伏:上游供应危机尚未解除,国产替代必需提上日程 ..................................... 19
3.2. 柳暗花明:以 Chiplet 工艺打开我国对算力的想象空间 ................................................ 22
3.3. 适逢其会:为上游部分元件打开增量空间 .......................................................................... 23
3.3.1. AI 服务器或将打开 PCB 增量市场................................................................................ 23
3.3.2. 高算力使服务器芯片散热成为难题,散热模组应需求提高散热效率 ........... 24
3.3.3. 数据存力作为算力进阶需求迭起,看好国产存储器后续发展 ......................... 24
3.4. 下游指明服务器发展方向,人工智能渗透率提高将扩展 AI 服务器应用 ................ 25
4. 投资建议 ....................................................................................................................................... 27
5. 风险提示 ....................................................................................................................................... 28
图表目录
图 1:AI 服务器的 CPU+架构 ...................................................................................................................... 4
图 2:中国智能算力规模 ............................................................................................................................... 7
图 3:全球服务器市场规模及增速 ............................................................................................................ 8
图 4:中国服务器市场规模及增速 ............................................................................................................ 8
图 5:全球 AI 服务器市场规模及增速 ...................................................................................................... 8
图 6:中国 AI 服务器市场规模及增速 ...................................................................................................... 8
图 7:ODM 和品牌服务器厂商市占率 ..................................................................................................... 9
图 8:预计 2022 年 ODM 厂商竞争格局 ................................................................................................. 9
图 9:2021 年 H1 全球 AI 服务器竞争格局 ............................................................................................ 9
图 10:2021 年 H1 中国 AI 服务器竞争格局 .......................................................................................... 9
图 11:2021 年全球服务器竞争格局 ...................................................................................................... 10
图 12:2021 年中国服务器竞争格局 ...................................................................................................... 10
图 13:GPT 模型参数对应 GPU 数量与 DGX A100 POD 配置 ....................................................... 11
图 14:NVIDIA DGX Systems ..................................................................................................................... 12
图 15:NVIDIA DGX A100 配置 ................................................................................................................ 12
图 16:NVIDIA DGX H100 配置 ................................................................................................................ 13
图 17:NVIDIA DGX H100(H100、NVLink、NVSwitch 配套) .................................................. 13
行业报告 | 行业深度研究
请务必阅读正文之后的信息披露和免责申明 3
图 18:DGX A100 与 DGX H100 32 节点 256 GPU NVIDIA SuperPOD 架构比较............. 14
图 19:PCIe 与 NVLink 架构比较 .............................................................................................................. 14
图 20:NVIDIA NVLink 迭代规格 .............................................................................................................. 14
图 21:以 P100 为例,NVLink 组成架构 ............................................................................................... 15
图 22:NVIDIA NVSwitch 参数 .................................................................................................................. 15
图 23:NVSwitch 拓扑图(以 16 个 GPU 为例) .............................................................................. 16
图 24:NVSwitch 芯片 .................................................................................................................................. 16
图 25:NVIDIA Mellanox 400G InfiniBand 组成 .................................................................................. 16
图 26:NVIDIA ConnectX-7 智能主通道配接器 (HCA)示意图 .................................................... 16
图 27:NVIDIA Quantum-2 QM9700 Series 示意图 ......................................................................... 17
图 28:光模块工作原理 ............................................................................................................................... 17
图 29:光模块成本结构 ............................................................................................................................... 17
图 30:思科第一款 800G Nexus .............................................................................................................. 18
图 31:相关产业链 ........................................................................................................................................ 19
图 32:2018 年 IDC 公布的服务器成本拆解 ........................................................................................ 19
图 33:中国 AI 芯片市场规模(亿元) ................................................................................................. 20
图 34:2019/2020 年全球服务器应用场景 ........................................................................................... 26
图 35:2021 年我国服务器下游应用场景 ............................................................................................. 26
图 36:主要的 AI 服务器采购商 2019-2022 年 Capex(亿元) .................................................. 27
表 1:主流服务器类型(不完全统计) ................................................................................................... 4
表 2:AI 服务器与普通服务器相比具有更好的技术优势 .................................................................. 5
表 3:AI 服务器的技术迭代核心在于硬件架构 .................................................................................... 5
表 4:AI 服务器未来发展方向 ..................................................................................................................... 5
表 5:2018-2020 年模型升级带来的参数量激增................................................................................. 6
表 6:训练所需服务器测算 .......................................................................................................................... 6
表 7:以 ChatGPT 产品测算所需算力 ...................................................................................................... 7
表 8:AI 服务器厂商 ..................................................................................................................................... 10
表 9:光芯片可分为激光器芯片和探测器芯片 ................................................................................... 18
表 10:主流 AI 芯片的对比 ........................................................................................................................ 20
表 11:国内 AI 服务器所搭载的 GPU 厂商主要以英伟达为主 ...................................................... 21
表 12:英伟达 A100 与 A800GPU 性能相差不大 ............................................................................... 21
表 13:国内生产供应服务器的 GPU 厂商 ............................................................................................. 22
表 14:璧仞科技的 BR100、寒武纪的思元 370 与 NVIDIA A100 性能比较 ............................. 23
表 15:Chiplet 实现量产的国内公司 ...................................................................................................... 23
表 16:PCB 领域的国内厂商 ...................................................................................................................... 23
表 17:散热模组领域的国内厂商 ............................................................................................................ 24
表 18:国内企业的存储器产品 ................................................................................................................. 25
表 19:提供企业级 SSD 的企业 ................................................................................................................ 25
表 20:相关公司盈利预测与估值 ............................................................................................................ 27
行业报告 | 行业深度研究
请务必阅读正文之后的信息披露和免责申明 4
1. 人工智能服务器为算力支撑,助燃 AI 产业化
1.1. 从通用服务器到 AI 服务器的过渡
AI 服务器在众多服务器中脱颖而出源于其架构优势。AI 服务器是承载智慧计算中 AI 计算
的核心基础设施,是一种能够提供人工智能的数据服务器,既可以用于支持本地应用程序
和网页,也可以为云和本地服务器提供复杂的 AI 模型和服务,通过异构形式适应不同应用
范围以及提升服务器的数据处理能力,异构方式包括 CPU+GPU/TPU/ASIC/FPGA。
图 1:AI 服务器的 CPU+架构
资料来源:《人工智能服务器技术研究》王峰,天风证券研究所
AI 服务器的发展脱胎自通用服务器的性能提升需求。复盘主流服务器的发展历程,随着数
据量激增、数据场景复杂化,诞生了适用于不同场景的服务器类型:通用服务器、云计算
服务器、边缘计算服务器、AI 服务器。随着大数据、云计算、人工智能及物联网等网络技
术的普及,充斥在互联网中的数据呈现几何倍数的增长,使得以 CPU 为主要算力来源的传
统服务器承受着越来越大的压力,并且对于目前 CPU 的制程工艺而言,单个 CPU 的核心
数已经接近极限,但数据的增加却还在继续,因此服务器数据处理能力必须得到新的提升,
在这种环境下,AI 服务器应运而生。面对 ChatGPT 所引出的大规模预训练模型,AI 服务
器以其架构优势带来的大吞吐量特点,有望在一众服务器中脱颖而出。
表 1:主流服务器类型(不完全统计)
特点
配置
应用场景
通用服务器
物理服务器,独立存在,拥有完全管理员权限
和独立 IP 地址,安全稳定性高。
CPU、硬盘、内存等。
云计算服务器
通过虚拟化技术,将一台/多台服务器虚拟化成
一个可以切分的资源池,客户按需灵活配置与
扩展,管理便捷,费用相对低廉。
按客户需求配置 CPU、内
存、数据盘等。
适合对业务弹性扩展需求
和易用性的需求:电商、IT
行业、教育、移动应用、游
戏等。
边缘计算服务器
承担 70%以上的计算任务,需支持
ARM/GPU/NPU 等异构计算,针对不同业务场
景开发,远程控制运维。
工业互联网、车联网、医疗
保健、AR/VR、智慧城市等。
AI 服务器
采用异构形式服务器,承担大量计算;
大规模并行运算、多重向量/张量运算、计算效
率高。
GPU/FPGA/ASIC 等加速芯
片、CPU、内存等。
融合深度学习、机器视觉、
知识图谱等人工智能技术
的应用:医疗影像智能分
析、人脸/语音/指纹识别、
安防监控场景等。
资料来源:人工智能与创新公众号、皖云数科公众号、物联网世界官网、高升数据公众号、机智云物联网公众号、天风证券研究所
1.2. AI 服务器与普通服务器相比有着明显的性能优势
行业报告 | 行业深度研究
请务必阅读正文之后的信息披露和免责申明 5
AI 服务器相较于传统服务器算力上大幅跃升。AI 服务器利用 CPU+的架构模式,CPU 仍作
为 CPU 的数据处理主要模块,同时植入并行式计算加速部件,如 ASIC、FPGA、GPU 等,
负责人工智能计算负载加速。总而言之,在 CPU+架构下,AI 服务器的技术选型和部件配
置针对不同的业务场景做相应的调整优化,通过合理的负载分担实现计算能力的提升。
表 2:AI 服务器与普通服务器相比具有更好的技术优势
AI 服务器
普通服务器
卡的数量
以加速卡为主导,基础要求为四块以上的 GPU 卡,甚至需要搭
建外部服务器作为支持。
以 CPU 为主导,单卡/双卡 CPU。
P2P 通讯
GPU 卡间需要大量的参数通信,模型越复杂,通信量越大:
SXM3 协议下,P2P 带宽高值 300GB/s;
SXM2 协议下,P2P 带宽高值 50GB/s;
PCI3.0 协议下,P2P 带宽高值 32GB/s。
普通 GPU 服务器一般只要求单卡性能。
特有设计
全面考虑对存储、通信、网络等相关领域的技术方案进行合理
配置,使之与计算部件的计算能力相匹配,避免出现性能瓶颈。
-
专有技术
Purley 平台更大内存带宽;
NVlink 提供更大的互联带宽;
TensorCore 提供更强的 AI 计算力。
-
资料来源:南京锟前官网,天风证券研究所
1.3. AI 服务器的进步源于芯片,未来将关注更多功能性
我们认为 AI 服务器的技术迭代取决于硬件中 AI 芯片的选择。传统普通服务器数据处理核
心单一,以 CPU 为主,AI 服务器则采取 CPU+的异构方式完成数据处理能力提升。参考英
伟达 HGX 的产品迭代路径,核心差异在于搭载的 GPU,HGX-1、HGX-2 和 HGX A100 分
别对应 Tesla P100 GPU、Tesla V100 和 A100,在深度学习和高性能计算领域都展现出更高
的性能。因此,我们认为可以从 AI 芯片发展窥见 AI 服务器的技术迭代历程,主要以
CPU+GPU 为主的 AI 服务器,结合云服务趋势发展至 CPU+GPU/ASIC/FPGA 的多功能+优
性能+灵活性+高性价 AI 服务器。
表 3:AI 服务器的技术迭代核心在于硬件架构
阶段性进展
硬件架构发展路径
汇聚主流
2010-2014
2010 年后随着云计算、大数据为代表的新一代信息技术高速发展并逐渐开
始普及,云端采用“CPU+GPU”混合计算模式,推动人工智能算法的演进
和人工智能芯片的广泛使用。
百花齐放
2015-2020
随着以深度学习为核心的人工智能技术得到全球范围内的关注,业界对人
工智能算力的要求越来越高。更多高性能的定制化芯片开始出现,部署不
同场景的服务器中,2015 年 Google 推出基于 ASIC 架构的 TPU 用于云端
训练和推理,2017 年微软发布基于 FPGA 芯片组建的 Project Brainwave 低
时延深度学习系统,2018 年亚马逊发布高性能推理芯片 AWS Inferentia 等。
融合发展
2021-至今
上云需求+数据规模膨胀,云原生+人工智能服务器逐渐成为一种趋势,既
能够应对人工智能计算密集型工作,也能兼顾高弹性、高敏捷和高性价比
的优势。
资料来源:《人工智能芯片产业技术发展研究》商惠敏,澎湃,驱动科技公众号,Kyligence 公众号,天风证券研究所
结合整个人工智能技术和服务的发展,未来人工智能服务器将重点发展软硬件平台融合、
低功耗设计、智能边缘计算等领域。特别是随着量子计算、类脑芯片等新一代人工智能计
算加速技术的兴起,人工智能服务器的设计与实现可能会产生颠覆性变化。总之,人工智
能服务器作为提供计算能力的核心要素,都是人工智能研发应用体系中不可或缺的组成部
分,它的良性发展势必会为整个人工智能产业的成长奠定坚实的基础。
表 4:AI 服务器未来发展方向
剩余28页未读,继续阅读
资源评论
LittleBrightness
- 粉丝: 0
- 资源: 140
上传资源 快速赚钱
- 我的内容管理 展开
- 我的资源 快来上传第一个资源
- 我的收益 登录查看自己的收益
- 我的积分 登录查看自己的积分
- 我的C币 登录后查看C币余额
- 我的收藏
- 我的下载
- 下载帮助
最新资源
- Map2ShpPro-Demo.zip
- vue3 的 main.ts 文件,包含了 elementui-plus 注册,icon 全局注册等常用注册
- Socket通讯验证工具 可验证本机端口是否被占用 验证服务端端口是否开通或可访问 查看服务端与客户端的socket发送信息
- 宠物购物网站代码,功能有购物功能,留言板功能等
- PCB制图3d元件库,适用于ALTIUM软件
- PLC资源程序: PLC程序,电梯实用程序,多层复制,自动扶梯
- 利用gTTS或ChatTTS实现文本转语音
- 2Kw直驱电机 2Kw直驱电机
- 微软Office2007官方精简版SP2
- 三层别墅图纸编号D099-三层-13.80&10.40米-效果图.dwg
资源上传下载、课程学习等过程中有任何疑问或建议,欢迎提出宝贵意见哦~我们会及时处理!
点击此处反馈
安全验证
文档复制为VIP权益,开通VIP直接复制
信息提交成功