数据中心,是一个热词。
在最近一个季度,英伟达、博通、AMD、英特尔、Marvell、SK海力士、美光和三星的数据中心相关出货量超过了 2200 亿美元的年出货量(不包括电源芯片)。
随着 LLM 的快速扩展,预计到 2030 年数据中心的半导体支出将超过 5000 亿美元,占整个半导体行业的 50% 以上。
那么,哪一系列芯片又会随着数据中心的走红同步受益?在此之前,先来了解一下数据中心。
01
什么是数据中心?
数据中心可以分为IDC(Internet Data Center,互联网数据中心)、EDC(Enterprise Data Center,企业数据中心)、NSC(National Supercomputing Center,国家超级计算中心)。
其中,IDC是电信业务经营者利用已有的互联网通信线路、带宽资源,建立标准化的电信专业级机房环境,通过互联网向客户提供服务器托管、租用以及相关增值等方面的全方位服务。
EDC是指由企业或机构构建并所有,服务于企业或机构自身业务的数据中心,是一个企业数据运算、存储和交换的核心计算环境,它为企业、客户及合作伙伴提供数据处理、数据访问等信息,应用支持服务。
NSC是指由国家兴建、部署有千万亿次高效能计算机的超级计算中心。
根据规模容量不同,数据中心可以分为超大型数据中心、大型数据中心和中小型数据中心。
超大型数据中心:规模大于10000个标准机架的数据中心,用于为全球范围内的大型企业和互联网服务提供商提供高容量和高性能的数据存储和处理服务,为企业和科研机构提供数据挖掘、机器学习和人工智能等领域的支持。
大型数据中心:规模介于3000~10000个标准机架的数据中心,用于为大型企业或者互联网公司提供数据存储和处理服务。
中小型数据中心:规模小于3000个标准机架的数据中心,用于为中小型企业提供数据存储和处理服务。
数据中心建设规模的逐步扩大,自然对芯片的需求水涨船高,以下一系列芯片市场也迎来颇多红利。
02
这几类芯片,更香了
数据显示,在2030年数据中心半导体支出中,GPU/AI加速器占到60%;AI扩展网络芯片占到15%;CPU(x86和ARM)占到10%;存储芯片占到10%;电源、BMC等占到5%。
其中,GPU/AI 加速器是算力核心,主要用于 AI 训练与推理、高性能计算,与 CPU 形成异构计算,提升算力效率。
AI 扩展网络芯片负责构建高带宽低延迟网络,实现 GPU 间高速互联,卸载 CPU 网络任务,优化 AI 流量传输。
CPU芯片作为控制中枢,管理系统资源、调度任务,处理通用计算和协议事务,并协调异构计算。
HBM等存储芯片与 GPU/AI 加速器配合,支撑高性能计算场景,为大规模数据处理提供高速存储与读取能力。
电源、BMC 等芯片,用于保障数据中心设备供电稳定和远程监控管理,确保系统可靠运行。
同样的,如今正有着越来越多的芯片公司押注这一市场。
03
数据中心芯片,谁更挣钱?
目前,几乎所有数据中心半导体收入都集中在九家公司身上:英伟达、台积电、博通、三星、AMD、英特尔、美光、SK 海力士和 Marvell。
GPU/AI 加速器,英伟达是最大赢家
在GPU/AI 加速器市场, Nvidia是最大赢家,竞争者是 AMD与 Broadcom。
在刚刚过去的一个季度,英伟达来自AI加速器的季度收入为330亿美元,博通来自AI加速器的收入约40亿美元,Marvell来自AI加速器的季度收入约10亿美元,AMD来自AI加速器的收入小于10亿美元。
国产GPU公司也在这一市场发起挑战。比如华为昇腾 910B、壁仞 BR100、天数智芯天垓 100、海光DCU K100、摩尔线程 MTT S4000等均是他们交出的不错解法,只是国产GPU公司所占据的市场份额相比国际大厂还相对较小。
CPU看点颇多
在CPU市场中,看点可就多了。
近二十多年来,英特尔一直是数据中心 CPU 市场无可争议的领导者,其提供的 Xeon 处理器为全世界大多数的服务器提供动力。另一方面,仅在七八年前,AMD 的处理器还只能占据个位数的市场份额。
如今,情况已发生了巨大变化。
虽然英特尔的 Xeon CPU 仍然为大多数服务器提供动力,但越来越多的新服务器,特别是高端设备已经趋向于选用 AMD 的 EPYC 处理器。
去年11月,独立研究机构 SemiAnalysis 指出,AMD 的数据中心业务部门现在的销量已经超过了英特尔的数据中心和 AI 业务。
据悉,在AMD的新一代产品中,AMD 的 EPYC 处理器相对于英特尔的 Xeon CPU 取得了竞争优势,英特尔不得不以大幅折扣出售其服务器芯片,这降低了该公司的收入和利润率。
下图也清晰的展现了,自2022年第二季度以来,英特尔至强服务器CPU的出货量一直在下降。
近日,ARM更是放出“狠话”:今年年底前,公司在全球数据中心CPU 市场的占比将跃升至 50%,远高于去年的约 15%。Arm 基础设施业务主管 Mohamed Awad 表示,这一增长主要得益于 AI 产业的快速发展。
Arm 的 CPU 通常充当 AI 计算系统的“主机”芯片,负责调度其他 AI 芯片。例如,英伟达的部分高端 AI 系统采用了一款名为 Grace 的 Arm 架构芯片,该系统还包含两颗 Blackwell 芯片。Awad 指出,Arm 芯片在许多情况下比英特尔和 AMD 的产品功耗更低。AI 数据中心耗电量极大,云计算企业因此越来越倾向于采用 Arm 芯片。
此外,数据中心芯片往往使用Arm 更多的知识产权,使公司在这一领域的版税收入远高于面向其他设备的芯片。
不仅如此,数据中心CPU市场在近日再度迎来一位“老朋友”——高通。
近日,高通正式与沙特主权财富基金(PIF)旗下 AI 企业 HUMAIN 达成合作,高通将为后者的开发和供应最先进的数据中心CPU和AI解决方案。
正如上文所言,在目前的数据中心市场,前有英特尔、AMD,后有Arm,竞争程度远远大于移动端CPU。
在数据中心CPU市场,高通也有过一段失败的经历。早在 2017 年,高通曾推出基于 Arm 架构的 Centriq 2400 处理器,试图打破英特尔、AMD 在 x86 架构的垄断。但当时受限于软件生态适配不足、性能未达预期,该项目于 2019 年黯然终止。
时隔多年,高通此次卷土重来,采取了截然不同的策略。
此前,高通通过收购 Nuvia 获得其 Phoenix 架构技术,并将其自研架构融入到高通平台中。该公司由前苹果 A 系列芯片核心成员组成,其设计的 Oryon 内核在能效比上表现优异,在当时一度引起行业轰动。从2023年开始,高通正式在桌面级CPU发力,旗下骁龙 X Elite 处理器已经进入消费级PC市场。
国产CPU公司在数据中心芯片也发力良久,相关产品包括龙芯 3C6000 系列、海光 CPU 系列、飞腾 S2500 及腾云 S5000C、鲲鹏 920 等。
HBM内存,SK海力士疯狂捞金
在内存市场中,HBM备受瞩目。
据悉,最近一个季度几乎HBM所有的收入(约 250 亿美元)均来自数据中心。
随着AI的兴起,特别是在机器学习和深度学习等数据密集型应用中,对HBM的需求空前高涨。预计2025年HBM出货量将同比增长70%,因为数据中心和AI处理器越来越多地依赖这种类型的存储器来处理低延迟的大量数据。HBM需求的激增预计将重塑DRAM市场,制造商将优先生产HBM,而不是传统的DRAM产品。
SK海力士、三星、美光三家公司为HBM领域的主要供应商,其中仅仅是SK海力士一家就占到了越70%的HBM市场份额。
前不久,SK海力士宣布12层HBM4已开始送样,最大容量36GB,下半年完成量产准备。
随着该公司在HBM市场的乘风逐浪,DRAM市场的格局也得到重塑。
今年Q1,SK海力士凭借在HBM领域的绝对优势,终结三星长达四十多年的市场统治地位,以36.7%的市场份额首度登顶全球DRAM市场第一。SK海力士预计今年HBM将持续保持同比增长约一倍,12层HBM3E的销售将稳步增长,预计在Q2其销售将占整个HBM3E比重的一半以上。
随着HBM需求持续火热,SK海力士在该市场持续捞金。
AI扩展网络芯片,英伟达再度蝉联
在AI扩展网络芯片市场,英伟达依旧是最大的赢家,竞争者包括博通、Astera。
博通首席执行官 Hok Tan 估计,网络目前占数据中心支出的 5% 到 10%,随着互连 GPU 数量的增加,互连的增长速度会更快,这一比例将增长到 15% 到 20%。
除了上述提到的芯片公司,其实AI代工公司在这一波浪潮中深度受益,比如得益于先进的节点和 2.5D/3D 封装技术,台积电几乎为数据中心生产所有高价值非内存芯片。其一半以上的收入来自 AI/HPC。英特尔与三星也正在这一市场发起挑战。
展望未来,随着AI、IoT和大数据技术的快速发展,数据中心芯片市场迎来了新的增长机遇。这些技术的应用推动了对高性能计算和数据处理的需求,为数据中心芯片制造商提供了广阔的市场空间。例如,AI技术在自动驾驶汽车、智能家居和工业自动化等领域的应用,需要强大的数据中心芯片来支持复杂的计算任务。此外,随着5G网络的普及,更多的设备将连接到互联网,产生海量数据,这将进一步推动数据中心芯片市场的发展。
上述芯片也有望在未来迎来更高的市场价值。
原文标题 : 数据中心芯片,更香了!