被低估的液冷市场:给AI服务器“降温”要花多少亿?【AI大师课2.4】

栏目分类被低估的液冷市场:给AI服务器“降温”要花多少亿?【AI大师课2.4】

你的位置:亚美ag旗舰厅app下载 > 产品展示 >

被低估的液冷市场:给AI服务器“降温”要花多少亿?【AI大师课2.4】

发布日期:2025-01-23 07:36    点击次数:135

本期内容

本节重点介绍服务器市场。服务器领域的情况有所不同,我们可以看到2023Q4浪潮信息的收入增速仅为6%,而中际旭创、天孚通信等光模块公司的增速则达到几十个百分点。这是因为光模块公司代表的是全球算力需求,而浪潮信息的主要收入来自国内,占国内AI服务器市场的一半以上,主要需求来自国内互联网大厂。

从2024年开始,国内AI算力需求增速显著提升,尤其是北美市场的错配周期。美国市场先一步起来,随后国内订单开始追赶,迅速上升。服务器市场因AI的存在而变得极度集中,主要客户为互联网公司。

从2025年开始,推理需求将成为主导,推理需求与服务器最为匹配。推理芯片相比训练芯片的附加值要求较低,推理服务器也不需要像训练时那样依赖光模块。但现在,从华为昇腾芯片到英伟达的A100,都已经全部采用液冷设计。GB200之后,液冷将成为标配。以往,只有特别重要的算力中心或能耗特别大的场合才会使用液冷,但到2025年,所有新的AI商业服务器都将采用液冷。

我最近花了很多时间研究这个领域,因为国内资本市场对液冷的关注度还不够。英伟达的一块芯片就需要一万多块钱的液冷配套。国内的华为昇腾910C芯片,包括冷凝板、冷热交换模块、冷却泵和冷却塔等,整个液冷系统的价值市场大约是5000多块钱。如果2025年有50万颗芯片,那就是25亿的市场。而100万颗芯片就是50亿的市场。真正能提供全套液冷解决方案的国内企业寥寥无几。

以上内容为「寻找下一个“英伟达”」课程第2章第4节的部分内容,吕伟老师将在本节课程后续内容中,重点介绍AI领域尚未被大家重视的服务器与液冷市场。对本专辑感兴趣的朋友,欢迎点击此处加入,学习本课程的完整内容。