您的位置:首页 > 新品速递 > 正文

数据中心芯片竞争激烈,谁能成为最大赢家?

时间:2025-06-05 09:52:47 浏览:16

数据中心,无疑是当下科技领域的一个热词。在最近一个季度,英伟达、博通、AMD、英特尔、Marvell、SK 海力士、美光和三星的数据中心相关出货量超过了 2200 亿美元的年出货量(不包括电源芯片)。随着大语言模型(LLM)的快速扩展,预计到 2030 年数据中心的半导体支出将超过 5000 亿美元,占整个半导体行业的 50% 以上。如此巨大的市场潜力,让数据中心芯片市场变得愈发诱人。

在深入探讨哪些芯片会随着数据中心的走红同步受益之前,我们先来了解一下数据中心。数据中心可以分为 IDC(Internet Data Center,互联网数据中心)、EDC (Enterprise Data Center,企业数据中心)、NSC (National Supercomputing Center,国家超级计算中心)。其中,IDC 是电信业务经营者利用已有的互联网通信线路、带宽资源,建立标准化的电信专业级机房环境,通过互联网向客户提供服务器托管、租用以及相关增值等方面的全方位服务。

8.png

EDC 是指由企业或机构构建并所有,服务于企业或机构自身业务的数据中心,是一个企业数据运算、存储和交换的核心计算环境,它为企业、客户及合作伙伴提供数据处理、数据访问等信息,应用支持服务。NSC 是指由国家兴建、部署有千万亿次高效能计算机的超级计算中心。根据规模容量不同,数据中心还可以分为超大型数据中心、大型数据中心和中小型数据中心。超大型数据中心规模大于 10000 个标准机架,用于为全球范围内的大型企业和互联网服务提供商提供高容量和高性能的数据存储和处理服务,为企业和科研机构提供数据挖掘、机器学习和人工智能等领域的支持。大型数据中心规模介于 3000 - 10000 个标准机架,用于为大型企业或者互联网公司提供数据存储和处理服务。中小型数据中心规模小于 3000 个标准机架,用于为中小型企业提供数据存储和处理服务。

随着数据中心建设规模的逐步扩大,对芯片的需求也水涨船高。数据显示,在 2030 年数据中心半导体支出中,GPU/AI 加速器占到 60%;AI 扩展网络芯片占到 15%;CPU(x86 和 ARM)占到 10%;存储芯片占到 10%;电源、BMC 等占到 5%。

GPU/AI 加速器是算力核心,主要用于 AI 训练与推理、高性能计算,与 CPU 形成异构计算,提升算力效率。AI 扩展网络芯片负责构建高带宽低延迟网络,实现 GPU 间高速互联,卸载 CPU 网络任务,优化 AI 流量传输。CPU 芯片作为控制中枢,管理系统资源、调度任务,处理通用计算和协议事务,并协调异构计算。HBM 等存储芯片与 GPU/AI 加速器配合,支撑高性能计算场景,为大规模数据处理提供高速存储与读取能力。电源、BMC 等芯片,用于保障数据中心设备供电稳定和远程监控管理,确保系统可靠运行。

目前,几乎所有数据中心半导体收入都集中在九家公司身上:英伟达、台积电、博通、三星、AMD、英特尔、美光、SK 海力士和 Marvell。

在 GPU/AI 加速器市场,Nvidia 是最大赢家,竞争者是 AMD 与 Broadcom。在刚刚过去的一个季度,英伟达来自 AI 加速器的季度收入为 330 亿美元,博通来自 AI 加速器的收入约 40 亿美元,Marvell 来自 AI 加速器的季度收入约 10 亿美元,AMD 来自 AI 加速器的收入小于 10 亿美元。国产 GPU 公司也在这一市场发起挑战,比如华为昇腾 910B、壁仞 BR100、天数智芯天垓 100、海光 DCU K100、摩尔线程 MTT S4000 等均是他们交出的不错解法,只是国产 GPU 公司所占据的市场份额相比国际大厂还相对较小。

在 CPU 市场中,看点颇多。近二十多年来,英特尔一直是数据中心 CPU 市场无可争议的领导者,其提供的 Xeon 处理器为全世界大多数的服务器提供动力。另一方面,仅在七八年前,AMD 的处理器还只能占据个位数的市场份额。如今,情况已发生了巨大变化。虽然英特尔的 Xeon CPU 仍然为大多数服务器提供动力,但越来越多的新服务器,特别是高端设备已经趋向于选用 AMD 的 EPYC 处理器。去年 11 月,独立研究机构 SemiAnalysis 指出,AMD 的数据中心业务部门现在的销量已经超过了英特尔的数据中心和 AI 业务。据悉,在 AMD 的新一代产品中,AMD 的 EPYC 处理器相对于英特尔的 Xeon CPU 取得了竞争优势,英特尔不得不以大幅折扣出售其服务器芯片,这降低了该公司的收入和利润率。

近日,ARM 更是放出 “狠话”:今年年底前,公司在全球数据中心 CPU 市场的占比将跃升至 50%,远高于去年的约 15%。Arm 基础设施业务主管 Mohamed Awad 表示,这一增长主要得益于 AI 产业的快速发展。Arm 的 CPU 通常充当 AI 计算系统的 “主机” 芯片,负责调度其他 AI 芯片。例如,英伟达的部分高端 AI 系统采用了一款名为 Grace 的 Arm 架构芯片,该系统还包含两颗 Blackwell 芯片。Awad 指出,Arm 芯片在许多情况下比英特尔和 AMD 的产品功耗更低。AI 数据中心耗电量极大,云计算企业因此越来越倾向于采用 Arm 芯片。此外,数据中心芯片往往使用 Arm 更多的知识产权,使公司在这一领域的版税收入远高于面向其他设备的芯片。

不仅如此,数据中心 CPU 市场在近日再度迎来一位 “老朋友”—— 高通。近日,高通正式与沙特主权财富基金(PIF)旗下 AI 企业 HUMAIN 达成合作,高通将为后者的开发和供应最先进的数据中心 CPU 和 AI 解决方案。正如上文所言,在目前的数据中心市场,前有英特尔、AMD,后有 Arm,竞争程度远远大于移动端 CPU。在数据中心 CPU 市场,高通也有过一段失败的经历。早在 2017 年,高通曾推出基于 Arm 架构的 Centriq 2400 处理器,试图打破英特尔、AMD 在 x86 架构的垄断。但当时受限于软件生态适配不足、性能未达预期,该项目于 2019 年黯然终止。时隔多年,高通此次卷土重来,采取了截然不同的策略。此前,高通通过收购 Nuvia 获得其 Phoenix 架构技术,并将其自研架构融入到高通平台中。该公司由前苹果 A 系列芯片核心成员组成,其设计的 Oryon 内核在能效比上表现优异,在当时一度引起行业轰动。从 2023 年开始,高通正式在桌面级 CPU 发力,旗下骁龙 X Elite 处理器已经进入消费级 PC 市场。国产 CPU 公司在数据中心芯片也发力良久,相关产品包括龙芯 3C6000 系列、海光 CPU 系列、飞腾 S2500 及腾云 S5000C、鲲鹏 920 等。

在内存市场中,HBM 备受瞩目。据悉,最近一个季度几乎 HBM 所有的收入(约 250 亿美元)均来自数据中心。随着 AI 的兴起,特别是在机器学习和深度学习等数据密集型应用中,对 HBM 的需求空前高涨。预计 2025 年 HBM 出货量将同比增长 70%,因为数据中心和 AI 处理器越来越多地依赖这种类型的存储器来处理低延迟的大量数据。HBM 需求的激增预计将重塑 DRAM 市场,制造商将优先生产 HBM,而不是传统的 DRAM 产品。SK 海力士、三星、美光三家公司为 HBM 领域的主要供应商,其中仅仅是 SK 海力士一家就占到了约 70% 的 HBM 市场份额。前不久,SK 海力士宣布 12 层 HBM4 已开始送样,最大容量 36GB,下半年完成量产准备。随着该公司在 HBM 市场的乘风逐浪,DRAM 市场的格局也得到重塑。今年 Q1,SK 海力士凭借在 HBM 领域的绝对优势,终结三星长达四十多年的市场统治地位,以 36.7% 的市场份额首度登顶全球 DRAM 市场第一。SK 海力士预计今年 HBM 将持续保持同比增长约一倍,12 层 HBM3E 的销售将稳步增长,预计在 Q2 其销售将占整个 HBM3E 比重的一半以上。随着 HBM 需求持续火热,SK 海力士在该市场持续捞金。

在 AI 扩展网络芯片市场,英伟达再度蝉联最大赢家,竞争者包括博通、Astera。博通首席执行官 Hok Tan 估计,网络目前占数据中心支出的 5% 到 10%,随着互连 GPU 数量的增加,互连的增长速度会更快,这一比例将增长到 15% 到 20%。

除了上述提到的芯片公司,其实 AI 代工公司在这一波浪潮中也深度受益,比如得益于先进的节点和 2.5D/3D 封装技术,台积电几乎为数据中心生产所有高价值非内存芯片。其一半以上的收入来自 AI/HPC。英特尔与三星也正在这一市场发起挑战。

展望未来,随着 AI、IoT 和大数据技术的快速发展,数据中心芯片市场迎来了新的增长机遇。这些技术的应用推动了对高性能计算和数据处理的需求,为数据中心芯片制造商提供了广阔的市场空间。例如,AI 技术在自动驾驶汽车、智能家居和工业自动化等领域的应用,需要强大的数据中心芯片来支持复杂的计算任务。此外,随着 5G 网络的普及,更多的设备将连接到互联网,产生海量数据,这将进一步推动数据中心芯片市场的发展。上述各类芯片也有望在未来迎来更高的市场价值。