TrendForce:预估2023年市场上AI加速芯片搭载HBM总容量将达2.9亿GB 同比增长近6成-世界速读
(资料图)
智通财经APP获悉,6月21日,TrendForce集邦咨询研究表示,2023年ChatBOT等生成式AI应用带动AI服务器成长热潮,又以大型云端业者最积极投入,包含Microsoft、Google、AWS或其他中系业者如Baidu、ByteDance等陆续采购高端AI服务器,以持续训练及优化其AI分析模型。高端AI服务器需采用的高端AI芯片,将推升2023-2024年高带宽存储器(HBM)的需求,并将驱动先进封装产能2024年成长3-4成。TrendForce集邦咨询预估,2023年市场上主要搭载HBM的AI加速芯片(如NVIDIA的H100及A100、AMD的MI200及MI300及Google的TPU等),搭载HBM总容量将达2.9亿GB,成长率近6成,2024年将持续成长3成以上。
TrendForce集邦咨询指出,为提升整体AI服务器的系统运算效能,以及存储器传输带宽等,NVIDIA、AMD、Intel等高端AI芯片中大多选择搭载HBM。目前NVIDIA的A100及H100,各搭载达80GB的HBM2e及HBM3,在其最新整合CPU及GPU的Grace Hopper芯片中,单颗芯片HBM搭载容量再提升20%,达96GB。另外,AMD的MI300也搭配HBM3,其中,MI300A容量与前一代相同为128GB,更高端MI300X则达192GB,提升了50%。同时预期Google将于2023年下半年积极扩大与Broadcom合作开发AISC AI加速芯片TPU亦采搭载HBM存储器,以扩建AI基础设施。
此外,AI及HPC等芯片对先进封装技术的需求日益提升,其中,以TSMC的CoWoS为目前AI 服务器芯片主力采用者。CoWoS封装技术主要分为CoW和oS两段,其中,CoW主要整合各种Logic IC(如CPU、GPU、AISC等)及HBM存储器等,另外,oS部分则将上述CoW以凸块(Solder Bump)等接合,封装在基板上,最后再整合到PCBA,成为服务器主机板的主要运算单元,与其他零部件如网络、储存、电源供应单元(PSU)及其他I/O等组成完整的AI 服务器系统。
TrendForce集邦咨询观察,估计在高端AI芯片及HBM强烈需求下,TSMC于2023年底CoWoS月产能有望达12K,其中,NVIDIA在A100及H100等相关AI Server需求带动下,对CoWoS产能较年初需求量,估提升近5成,加上AMD、Google等高端AI芯片需求成长下,将使下半年CoWoS产能较为紧迫,而此强劲需求将延续至2024年,预估若在相关设备齐备下,先进封装产能将再成长3-4成。
TrendForce集邦咨询指出,值得注意的是,在AI较急促需求下,无论是HBM或CoWoS生产过程中,得后续观察周边配套措施,例如硅通孔封装技术(TSV)、中介层电路板(Interposer)以及相关设备(如湿制程设备)等是否能到位,如前置时间(Lead Time)等考量。而在AI强劲需求持续下,估NVIDIA针对CoWoS相关制程,亦不排除将评估其他类似先进封装外援,例如Amkor或Samsung等,以应对可能供不应求的情形。
关键词: