浅析:什么是伺服器?伺服器供应链解析!
受益于AI人工智能需求持续强劲,不论大型云端供应商、企业皆积极采购伺服器。虽然目前AI伺服器占整体伺服器出货比重还不到10%,但2026年该数字有望达15%。同时,中国台湾地区市场(以下数据仅指中国台湾地区市场数据)也预期相较于云端市场2023~2030年有17%的年均复合成长率(CAGR),整体AI市场从2023~2030年的CAGR高达37%。
我们知道一颗晶片从无到有的所有流程,当然也包括了AI伺服器的核心GPU晶片,然而一台伺服器的组成还需要经过多项程序,以及元件的组装,才能发挥其强大的运算能力。以下就带大家拆解AI伺服器的供应链吧!
AI伺服器有什么特别的?
与传统伺服器以中央处理器(CPU)为主要算力提供者的形式不同,AI伺服器一般是指采用异质架构形式的伺服器,一般常见可以为CPU+图形处理器(GPU)及CPU+特定应用IC(ASIC、FPGA、TPU)。因为无论推论还是训练,在资料量迅速膨胀的情况下,需要更多工的运算需求,所以目前常见AI伺服器主要是通过CPU搭配GPU,以GPU为核心算力来源,因此让以GPU起家的辉达(NVDA)一举跃上枝头。
AI伺服器上游
元件
一个伺服器内除了GPU、CPU等运算处理晶片外,还需要相当多的元件所构成。基本可以分为GPU模组、GPU基板、电源供应器、散热、机柜等重要的元件。
为了不断追求运算速度,伺服器内晶片数量开始越来越多,晶片的放置将决定整体的运算效率,也因此晶片与晶片之间的堆叠排列成了一门学问。GPU模组与基板的重要性不言而喻,在辉达(NVDA)的伺服器供应链中由鸿海子公司工业富联独家供应,而纬创则是MI300(AMD)的独家供应商。
由于AI算力的需求攀升,使得晶片耗电功率也不断升级,一台AI伺服器需要2颗CPU与4至8颗的GPU,GPU又是CPU功率的2至4倍,整体需要更多电力。且随着技术的进展,如今记忆体、GPU、CPU集合在同一封装内,各晶片所需的工作电压不同,将大大考验着电源供应器的处理能力。电源供应器大厂有包含了像是光宝科、台达电、康舒等,而目前市场更传出台达电通吃辉达最新Blackwell架构系列B100、B200、GB200伺服器电源订单。
除了电源供应系统升级需求外,在功耗动辄上千瓦以上,传统气冷散热技术已不敷使用,市场则开始将目光放向了水冷散热方案。水冷散热成为AI伺服器主流解决方案后,伴随而来的是散热模组将内含更多高单价零组件,例如水冷头、分歧管、冷却液分配装置等,这些都是过往传统热管、均热板不曾使用的零组件,再加上解热设计、客户验证等,均大幅垫高供应链门槛。据消息称辉达最新推出的GB200伺服器的风扇产值将高达5200~5300美元,是上一代采用传统散热方案的风扇2~3倍的价格,目前市场散热族群中,以双鸿、奇鋐在水冷散热布局较为领先。
目前AI伺服器多属“机架伺服器”,一个机柜内存放多个伺服器机箱,伺服器机箱的规格则是以U为代称,分别有1U、2U、4U等不同的大小,随着AI需求提高,4U、7U等高U数伺服器逐渐受到重视,高U数可望带动公司ASP提高。
AI伺服器中游
整合组装
当伺服器内的原料整备完成后,则会进入伺服器组装厂进行组装代工的程序,此时将为被分为两种模式。过去多数都以ODM代工厂组装完成后,送至品牌伺服器厂进行销售,为主要路线。但若ODM厂与CSP(Cloud Service Provider,云端服务供应商)有直接合作关系,不通过品牌厂,而是服务商直接下单购买客制化的设备,就成为ODM Direct,一般称为白牌伺服器厂商,也是近期兴起的销售方式。
AI伺服器下游
伺服器的下游大户就是云端服务供应商(CSP),将AI伺服器部署在全球各地,以便支援各自云端系统的运算速度,现如今生成式AI的需求暴涨,各家巨头纷纷增加对于AI伺服器的需求,以因应训练与推理的庞大算力。
市调机构TrendForce发布报告表示,预计美系四大云端服务供应商(CSP),微软(MSFT)、Google(GOOGL)、亚马逊(AMZN)与Meta(META)对2024年AI伺服器需求比重,分别达20.2%、16.6%、16%及10.8%,合计超过六成。
结语
目前中国台湾市场上的AI伺服器就是以辉达所生产的GPU伺服其占最大宗,可以发现整个供应链都以台厂为主,得益于站在人工智能浪潮风口,拉抬了不少台系业者的营收与股价表现。
▲ 注:文章及图片整理转载于网络,仅供参考学习,版权归原作者所有,如涉及侵权,请联系小编删除。
上一篇:海外AI提速!半导体材料或将迎来“黄金时代”? 2025-06-23
下一篇:AI算力芯片市场四分天下,中国力量日益崛起 2025-06-23