AI服务器还有哪些产业链有望持续受益?

AI服务器还有哪些产业链有望持续受益?
2023年06月14日 16:49 选股通APP

华西证券表示,市场低估了算力军备竞赛对需求及创新的拉动,AI算力基础设施将成为新AI竞赛的“入场券”

6月14日,算力服务器、光模块等再度大涨;此外,AMD昨晚发布MI300,对此华西证券表示,市场低估了算力军备竞赛对需求及创新的拉动。

其认为,AI算力是ChatGPT模型训练与产品运营核心基础设施,ChatGPT的诞生将对科技产业的格局和商业模式形成颠覆,“危与机“的共同作用下,全球科技互联网企业必将加速进入ChatGPT角逐,而AI算力基础设施将成为新AI竞赛的“入场券”。

而除了已经全面爆发的光通信外,还有哪些核心产业链有望持续受益?

1、PCB

服务器中,PCB板是服务器内各芯片模组的基座,主要应用于主板、背板和网卡等,负责传递服务器内各部件之间的数据信号以及实现对电源的分布和管理。

华福证券指出,与传统服务器相比,AI服务器采用CPU+GPU的异构芯片架构,GPU板组为全新结构,对PCB板的面积、层数、以及CCL材料的抗干扰、抗串扰、低损耗特性均提出了更高的要求。

其表示,高端服务器的发展成为高端PCB生产技术升级的推动力,PCB量价齐升趋势明确。作为“电子产品之母”,PCB有望在AI及服务器产品迭代、需求升级的大趋势下率先实现实质性的业务突破。

2、液冷

申万宏源指出,AI在大规模应用过程中,对算力提出更高要求,芯片必须具备更高计算效率,带来芯片能耗的加大,同时对于算力的重视将使数据中心架构发生变化,单个芯片的散热功率密度增加,单机柜平均功率增长,同时伴随“东数西算”等重点项目稳步推进,服务器液冷方案有望迎来高需求。

其认为,液冷相较于传统风冷,制冷效率显著更高,实现了高密度、低噪音、低传热温差、全年自然冷却效果,具备显著优势。当前传统风冷提升空间有限,无法完全应对芯片能耗加大带来的散热问题,并且能耗更大,PUE较高难以满足长期要求。据测算,15kW/柜以上时液冷技术逐渐显露其经济性优势。目前英伟达单GPU芯片功耗突破700W,AI集群算力密度普遍达到50kW/柜,液冷方案在经济性已具备优势。

据赛迪顾问预测,中国液冷数据中心市场规模2025年将达到1283.2亿元,“东数西算”等重要项目,为国内厂商带来重要机遇,预计将更快实现放量。同时,国内此前温控领域具备优势的厂商,实际上具备能力迁移的基础。

3、内存接口芯片

内存接口芯片是服务器内存模组的核心逻辑器件,作为服务器CPU存取内存数据的必由通路,主要作用是提升内存数据访问的速度及稳定性。

浙商证券表示,内存进入DDR5新世代,标准升级将驱动RCD、DB、SPD、TS、PMIC等芯片价值量上行。同时,高吞吐、低延迟、高密度的处理需求也将进一步催生对更高带宽、更快速度、更高容量内存模组的需求。

中金公司表示,2016年来服务器内存接口芯片市场规模快速增长,预计2022年为7.2亿美元,预计到2025年增长至14.6亿美元。

4、HBM(高带宽存储

美光相关数据显示,一台人工智能服务器DRAM使用量是普通服务器的8倍,NAND是普通服务器的3倍。

内存DRAM可以分为DDR系列、GPDDR系列、LPDDR系列和HBM系列等;其中,HBM(高带宽存储)显存是一种适用于高性能和AI训练计算的新型内存芯片,通过硅通孔技术进行芯片堆叠,并与GPU位于同一物理封装内,可节省能耗和占用空间,便于在系统中安装更多GPU。

国盛证券表示,HBM的芯片面积较GDDR大幅节省,因而是最适用于AI训练、推理的存储芯片。经测算,受AI服务器增长拉动,HBM需求有望在2027年增长至超过6000万片。

5、电源

中金公司指出,服务器内部主要使用模块化的开关电源,具有体积小、功率密度高、转换效率高和噪声低等优势。标称电流和电压、输出功率、效率和功率密度等是核心性能指标。除服务器之外,模块电源在基站、存储等ICT和工业设备中都有广泛使用。服务器代际升级,带动主板模块电源功率等级提高,目前平均750w,未来或将提高到1500w。

据其测算,全球服务器电源模块的市场规模约150亿元。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部