人工智能驱动内存互连进化
人工智能(AI)、车用芯片的复杂程度逐步递增,边缘处理比重也在增加,
存储的选择、设计、使用模式及配置将会面临更大的挑战。因此,为了满足 AI
和机器学习应用程序的需要,位置(Location)越来越多地应用于数据需要驻留
的地方和存储数据的内存。
在芯片、元件和系统之间移动以及处理优先处理顺序不明确的情况下,设
计团队只能在合并和共享存储之间取得平衡以降低成本,或增加更多不同类型
的存储来提升效能、降低功耗。
但这个问题不仅仅是内存供应商面临的挑战;其他 AI 利益相关者也在发挥
作用,解决方案最关键的一部分是内存互联,即内存离计算越来越近。在人工
智能硬件峰会内存互联的挑战和解决方案圆桌讨论上 Rambus 研究员 Steve Woo
表示:“我们都在人工智能的不同方面工作。”
从目前来看,内建 SRAM 和 DRAM 存储仍是当前主推技术。DRAM 密度高、
使用电容储存结构相对简单,又具有低延迟、高效能和接近无限次存取的耐用
度,功耗也比较低。SRAM 速度非常快,但较为昂贵且密度有限。这些不同的需
求会影响存储的类型、数量以及内建或外接存储的选择。
Marvell ASIC 业务部门的 CTO Igor Arsovski 在 SRAM 方面有着丰富的经验,
他表示,用啤酒来比喻内存互连并不坏。 “SRAM 就好比一瓶啤酒。它很容易
使用,使用它的能耗很低,它只提供你所需的。“但如果内存不够,你就会走
得更远,而且需要消耗更多的能量,就像需要走得更远才能买到啤酒一样。”
HBM vs LPDDR
外接存储的竞赛,基本上以 DRAM-GDDR 和 HBM 为主。从工程和制造角度来
看,GDDR 比较像 DDR 和 LPDDR 等其他类型的 DRAM,可以放在一个标准的印刷电
路板上并使用类似的制程。
HBM 是比较新的技术,牵涉到堆叠和矽中介层,每个 HBM 堆叠都有上千个
连接,因此需要高密度的互连,这远远超过 PCB 的处理能力。HBM 追求最高效
能和优质的电源效率,但成本更高,需要更多的工程时间和技术。GDDR 的互连
没这么多,但会影响讯号的完整性。
Arsovski 表示,在内存方面,高带宽内存(HBM) 正在被越来越多的人工智
能采用。