芯片行业新格局:巨头集体转向 ASIC 与 Arm
2025 年,AI 浪潮持续席卷全球,算力成为了新时代的石油,而围绕算力的争夺,也正改写着整个半导体版图。在这个变革的时代,芯片巨头们纷纷踏上了改命之路。
英伟达凭借 GPU 在 AI 训练领域几乎一骑绝尘,占据超过九成市场份额,其市值突破 4.5 万亿美元,成为了半导体行业新的领导者。然而,英伟达的地位并非牢不可破,AMD、博通、英特尔等厂商虎视眈眈,AI 芯片行业迎来了全新的一超多强格局。英伟达高筑软件与生态的护城河,几乎垄断了 AI 训练的上游体系;而其他芯片巨头与云厂商,则在悄然寻找新的突破口,AISC 和 Arm,似乎成为了它们的目标。

英特尔:困境中寻差异化之路
这两年,英特尔的日子过得并不算好。多年来,这位 “蓝色巨人” 一直难以跟上台积电等竞争对手的芯片制造能力,其在 AI 市场上更是缺乏竞争力的产品线。英伟达的 AI 芯片大卖特卖,AMD 也有自己的 AI 芯片组合,而英特尔的下一个 “重磅炸弹” Jaguar Shores 还要等到 2027 年首次亮相,其在 AI 上的落后早已暴露无遗。
身处困境的英特尔,选择走一条差异化的道路。据报道,英特尔最近成立了中央工程集团(CEG),将公司内所有工程人才整合到一个部门,由前 Cadence Systems 高管斯里尼・艾扬格领导。这位在 2024 年 7 月从 Cadence 加入的高管,在推动定制芯片商业模式方面有着深厚的经验,他在 Cadence 专注于 IP 业务、设计工具、设计生态系统合作伙伴关系以及定制芯片的垂直市场。他的经验和市场人脉被认为能够加速英特尔利用 “ASIC 热潮” 的能力。
英特尔首席执行官陈立武在第三季度财报电话会议上明确表示,CEG 集团将带头拓展新的 ASIC 和设计服务业务,为广泛的外部客户提供专用芯片。“这不仅将扩展我们核心 x86 IP 的覆盖范围,还将利用我们的设计优势,提供从通用到固定功能计算的一系列解决方案。” 这番话揭示了英特尔的战略雄心 —— 从纯粹的芯片制造商转型为提供 “设计 + 制造 + 封装” 的一站式服务商。
英特尔在 ASIC 领域的最大竞争优势在于其完整的产业链。作为老牌 IDM 企业,英特尔拥有芯片专业知识、x86 IP 以及提供制造服务的内部代工厂,寻求定制 AI 芯片的客户可以获得满足所有需求的 “一站式” 服务。这是市场上任何其他 ASIC 设计公司都无法提供的优势,即使是博通和 Marvell 也难以企及。更重要的是,凭借 CEG 集团,英特尔实现了集中式的横向工程,这意味着将设计服务与制造 + 封装连接起来的开销大幅降低。
然而,英特尔面临的挑战同样巨大。英伟达最近宣布斥资 50 亿美元收购英特尔约 4% 的股份,两家公司将共同开发 “多代定制数据中心和 PC 产品”。这一合作为英特尔带来了机遇,但也带来了复杂的竞合关系。数据中心芯片将是英特尔根据英伟达的规格定制的 x86 芯片,英伟达将 “将这些 CPU 集成到其 AI 基础设施平台中,并推向市场”。在消费级市场,英特尔计划打造集成英特尔 CPU 和 Nvidia RTX GPU 芯片组的 x86 SoC,这意味着英特尔可能会在未来产品中使用英伟达设计的图形芯片,而不是自家的 Arc GPU。
更关键的问题是制造,英伟达采用英特尔的 18A 制程或英特尔路线图上的其他制程来生产部分芯片的概率其实并不高。英特尔一直在努力寻找大客户,但黄仁勋在回答相关问题时对台积电大加赞赏,表示 “台积电的能力,从工艺技术、执行节奏、产能和基础设施的规模,到业务运营的敏捷性…… 所有这些魔力汇聚在一起,成就了一家世界级的代工厂,能够支持客户如此多样化的需求。台积电的魔力真是无以言表。” 这暗示英伟达短期内不太可能大规模转向英特尔代工。
对于英特尔而言,转向 ASIC 设计服务是在困境中寻找新的增长曲线的必然选择。在人工智能炒作中错失良机的英特尔,希望通过提供完整的设计和制造服务,在 AI 芯片市场中找到自己的位置。但这绝非易事,尤其是在人工智能市场竞争激烈以及像博通这样的 ASIC 设计公司不断发展的情况下。英特尔能否抓住这一机遇,将决定这家曾经的芯片霸主能否在 AI 时代重新崛起。
高通:激进转型挑战巨头
相较于有些无奈的英特尔,高通的选择颇有些激进。这家迄今为止一直专注于无线连接和移动设备半导体的公司,正在大举进军大型数据中心市场,直接挑战英伟达和 AMD 在 AI 推理领域的地位。近日,高通宣布将发布新的人工智能加速器芯片 AI200 和 AI250,消息传出后,高通股票飙升 11%,市场对这一转型给予了高度认可。
据报道,高通将于 2026 年上市销售的 AI200 和计划于 2027 年上市的 AI250 均可装入装满液冷服务器机架的系统中,这标志着高通进入数据中心领域,成为技术领域增长最快市场的新竞争者。据麦肯锡估计,到 2030 年,数据中心的资本支出将接近 6.7 万亿美元,其中大部分将用于基于人工智能芯片的系统。
高通数据中心芯片基于高通智能手机芯片中的人工智能部件,称为 Hexagon 神经处理单元(NPU)。近年来,该公司一直在逐步改进其 Hexagon NPU,因此这些处理器的最新版本已经配备了标量、矢量和张量加速器(采用 12+8+1 配置),支持 INT2、INT4、INT8、INT16、FP8、FP16 等数据格式,以及用于减少内存流量的微块推理、64 位内存寻址、虚拟化和用于额外安全性的 Gen AI 模型加密。对于高通来说,将 Hexagon 扩展到数据中心工作负载是一个自然的选择。
高通数据中心和边缘计算总经理杜尔加・马拉迪在与记者的电话会议上表示:“我们首先想在其他领域证明自己,一旦我们在那里建立了实力,我们就很容易在数据中心层面更上一层楼。” 这句话透露了高通的战略逻辑 —— 从移动端的 AI 能力积累,向数据中心市场延伸。
据了解,高通的 AI200 机架级解决方案配备 768GB LPDDR 内存,对于推理加速器而言,这已是相当可观的内存容量,高于英伟达和 AMD 的产品。该系统将使用 PCIe 互连实现纵向扩展,并使用以太网实现横向扩展。该系统将采用直接液冷,每机架功率高达 160kW,这对于推理解决方案而言也是前所未有的功耗。此外,该系统还将支持企业部署的机密计算。该解决方案将于 2026 年上市。
2027 年推出的 AI250 将会保留这一架构,但增加了近内存计算架构,有效内存带宽提升了 10 倍以上。此外,该系统将支持分解推理功能,使计算和内存资源能够在不同卡之间动态共享。高通将其定位为一款更高效、高带宽的解决方案,针对大型 Transformer 模型进行了优化,同时保留了与 AI200 相同的散热、散热、安全性和可扩展性特性。
高通明确表示,其芯片专注于推理或运行人工智能模型,而不是训练。这是一个明智的差异化策略,避开了英伟达最强势的训练市场。OpenAI 等实验室通过处理 TB 级数据来创造新的人工智能能力,这需要强大的训练芯片,而高通选择专注于已训练模型的运行和部署,这是一个同样庞大但竞争相对较小的市场。
高通表示,其机架式系统最终将降低云服务提供商等客户的运营成本,并且一个机架的功耗为 160 千瓦,与某些 Nvidia GPU 机架的高功耗相当,但在推理场景中能提供更好的性能功耗比。高通还在功耗、拥有成本以及内存处理的新方法方面强调其优于其他加速器的优势。
马拉迪强调,高通还将单独出售其 AI 芯片和其他部件,尤其是针对那些喜欢自行设计机架的超大规模数据中心客户。他表示,其他 AI 芯片公司,例如英伟达或 AMD,甚至可能成为高通部分数据中心部件的客户。“我们试图确保我们的客户能够选择全部购买,或者说‘我要混合搭配’。” 这种灵活的商业模式为高通打开了更多市场空间。
而高通的市场验证已然开始。2024 年 5 月,高通宣布与沙特阿拉伯的 Humain 公司合作,为该地区的数据中心提供 AI 推理芯片。Humain 将成为高通的客户,并承诺部署最多可使用 200 兆瓦电力的系统。
除了构建硬件平台,高通还在构建一个针对大规模推理优化的超大规模级端到端软件平台。该平台将支持主要的机器学习和生成式人工智能工具集,包括 PyTorch、ONNX、vLLM、LangChain 和 CrewAI,同时实现无缝模型部署。该软件堆栈将支持分解式服务、机密计算以及预训练模型的一键式加载,以简化部署。
马拉迪表示:“我们丰富的软件栈和开放的生态系统支持,使开发者和企业能够比以往更轻松地在我们优化的 AI 推理解决方案上集成、管理和扩展已训练好的 AI 模型。Qualcomm AI200 和 AI250 无缝兼容领先的 AI 框架,并支持一键式模型部署,旨在实现无缝应用和快速创新。”
高通转向数据中心 AI 推理市场的原因是多方面的。首先,该行业一直由英伟达主导,其 GPU 迄今占据了超过 90% 的市场份额,但像 OpenAI 这样的公司一直在寻找替代方案。谷歌、亚马逊和微软也在为其云服务开发自己的 AI 加速器,这为新进入者创造了机会。其次,推理市场的规模正在快速增长,随着越来越多的 AI 模型部署到生产环境中,推理需求将远超训练需求。第三,高通在移动端积累的 Hexagon NPU 技术为其进军数据中心提供了技术基础,这是一种从边缘到云端的自然延伸。
高通发布全新的 AI 芯片,本质上是传统的市场边界正在模糊,移动芯片厂商可以进军数据中心,而数据中心芯片厂商也在向边缘设备延伸,形成了你中有我,我中有你的新的市场竞争格局。
联发科:移动芯片厂商进军 AI
同样是移动芯片厂商的联发科也在进军 AI。这家传统的手机芯片厂商正在成为云端 ASIC 设计服务的重要玩家,与博通这样的 ASIC 市场领导者展开直面竞争,并且已经拿下了谷歌、Meta 等科技巨头的订单。
早在去年,联发科就宣布与英伟达的达成合作,而在今年的英伟达 GTC 大会上,联发科介绍了其 Premium ASIC 设计服务,显示联发科与英伟达的合作扩展至 IP 领域,更弹性的商业模式,能提供各式客制化芯片 / HBM4E 等,并具有丰富的 Cell Library,以及先进制程、先进封装经验,提供定制化芯片完整解决方案。
联发科的核心竞争力在于其 SerDes 技术。联发科指出,其 SerDes 技术为 ASIC 核心优势,涵盖芯片互连、高速 I/O、先进封装与内存整合。其中,112Gb/s DSP(数位信号处理器)基于 PAM-4 接收器,于 4 奈米 FinFET 制程打造,实现超过 52dB 损耗补偿,意谓更低信号衰减、更强捍之抗干扰特性。该技术不仅适用于以太网路、光纤长距传输,现在联发科更推出专为数据中心使用的 224G Serdes,并已经完成硅验证。
近日,联发科也正式宣布与英伟达合作设计 GB10 Grace Blackwell 超级芯片,该芯片将为新推出的 NVIDIA DGX Spark 提供动力。DGX Spark 是一款个人 AI 超级计算机,旨在帮助开发者在桌面上构建原型、进行微调和推断大型 AI 模型。
据了解,GB10 Grace Blackwell 超级芯片由最新一代 Blackwell GPU 与 Grace 20 核 Arm CPU 组合而成,运用了联发科在设计节能、高性能 CPU、内存子系统和高速接口方面的专业知识。该配置提供 128GB 统一内存,并提供高达 1 PFLOP 的 AI 性能,以加速模型调优和实时推理。这使得开发人员能够在本地处理高达 2000 亿个参数的大型 AI 模型。此外,该系统内置 ConnectX-7 网络技术,可将两个 DGX Spark 系统连接在一起,从而对高达 4050 亿个参数的模型进行推理。DGX Spark 的节能性能足以使用标准电源插座,其紧凑的设计使其能够轻松放置在桌面上。
而除了与英伟达的合作,联发科也在效仿博通和 Marvell 争取在云服务提供商的市场。根据调研机构指出,部分 CSP 已在评价英伟达及联发科之 IP 组合的定制化设计芯片。尽管谷歌 TPU(张量处理器)进度稍微递延,第七代 TPU 预计会在明年第三季投入量产,但采用 3nm 打造仍有望为联发科增加超过 20 亿美元的贡献。供应链也透露,谷歌进阶到第八代的 TPU,将会开始采用台积电 2nm 制程,持续在先进制程领域维持领先地位。
联发科的另一个重大突破来自 Meta。联发科和博通继续争夺 Meta 的新专用集成电路(ASIC)项目,业内人士强调,两家公司的表现相当。然而,最近的报道表明,联发科即将获得 Meta 即将推出的一款 2nm 工艺 ASIC 的大额订单,该芯片代号为 “Arke”,专注于后训练和推理功能,可能在 2027 年上半年实现量产。
据 IC 设计公司透露,联发科在此次产品竞赛中胜出,将是其获得的第二笔重要的云服务提供商(CSP)客户订单。熟悉 ASIC 领域的业内人士指出,Arke 原本并不在 Meta 的初始计划中。在 Iris 芯片计划于 2025 年底量产后,Meta 曾计划推出另一款采用 N2P 工艺的 ASIC,名为 Olympus。然而,考虑到实际需求和成本效益,Meta 在产品发布计划中途推出了一款专用于推理的芯片 Arke。因此,Olympus 将重新定位为一款专为训练而设计的 ASIC,以与 Nvidia 未来的 GPU 竞争,其发布时间将推迟到 2028 年。
Meta 之前的产品,主要由 ASIC 市场领导者博通开发。不过,联发科与 Meta 之间已有合作关系。例如,Meta 早期自主研发的智能眼镜芯片就是与联发科合作开发的,这在 ASIC 领域奠定了坚实的基础。因此,联发科可能获得 Meta 对新款 Arke 产品的青睐,并不完全出乎意料。
业内人士表示,在与谷歌关系稳定后,联发科需要扩大合作范围,以在云端 ASIC 市场建立更大的影响力。近期,市场观察到 CSP 巨头的 ASIC 设计策略和规划发生了变化。尽管云端 AI 的使用量依然巨大且供应紧张,但 CSP 已调整其策略以提升成本效益。以前,技术合规性和集成能力是优先考虑的,而往往忽略了成本。如今,随着对云端 AI 市场实际动态和芯片设计细节的洞察越来越清晰,CSP 也致力于开发更实用、更经济的产品。在这样的大环境下,联发科的成本优势正在逐渐显现。
联发科转向 ASIC 的原因与其独特的市场定位有关。作为一家中国台湾芯片设计公司,联发科在手机芯片市场面临激烈竞争,利润率受到挤压。ASIC 设计服务为联发科提供了更高的利润率和更稳定的客户关系。同时,联发科在先进制程、高速接口、内存整合等方面的技术积累,使其能够为云服务提供商提供差异化的解决方案。更重要的是,联发科通过与英伟达的合作,获得了进入高端 AI 市场的入场券,这是其独立发展难以实现的。
AMD:低调布局 Arm 架构产品
与其他厂商相比,AMD 在 ASIC 领域的动作相对低调,但其正在开发的基于 Arm 架构的产品显示出这家公司对未来市场的战略思考。据一篇颇具深度的行业杂志泄露的信息,AMD 正在开发一款代号为 “Sound Wave” 的基于 Arm 的 APU,并将于明年晚些时候发布。
这篇题为《AMD 正在开发基于 Arm 的 APU,代号为 Sound Wave》的短文被泄露,甚至还附上了部分海关申报单,显示了包裹的尺寸。一段时间以来,一直有传言称 AMD 正在开发一款基于 Arm 的设备,但这篇最新泄露的文章透露了其大致规格,包括相当小的 32mm x 27mm BGA 封装,包含六个 CPU 核心(两个 P 核心 + 四个 E 核心)和一个 RDNA 架构 GPU,这让它看起来更加现实。目前,用于评估电气特性的电路板正在发货。
从小巧的封装来看,该设备似乎瞄准移动应用,并将充分利用 Arm 架构的省电特性。与英特尔共享 x86 架构 CPU 市场的 AMD 在 PC / 服务器市场竞争激烈,但近年来,AMD 一直与台积电合作,按照其路线图将基于 Zen 架构的高性能 CPU 推向市场,并稳步抢占英特尔的市场份额。
首席执行官苏姿丰长期以来一直奉行通过 x86 架构巩固高端市场地位以确保更高利润率的产品战略,但现在似乎是时候将在移动领域市场份额不断扩大的 Arm 架构融入到自己的 CPU 中了。为数据中心市场供应高性能 CPU/GPU 的 AMD 似乎意识到了边缘设备上 AI 工作负载的未来增长领域。
AMD此前也曾开发过采用Arm架构的CPU,但那次开发最终只是Opteron品牌下名为“A1100”的一次性服务器CPU产品。AMD于2003年凭借K8架构的Opteron品牌进军服务器市场。之后,他们进一步升级流水线结构,并试图以主打高主频的Bulldozer核心架构巩固其地位。然而,产品层面的实际性能并未提升,这一尝试最终以失败告终。结果,AMD在市场上长期缺乏足够的产品来与英特尔竞争。
AMD重返服务器市场的时间被推迟到2017年,直到推出Zen架构产品。A1100 Arm架构服务器CPU是AMD在艰难时期经过反复试验后,开发出来的一款节能服务器处理器。当时,Arm架构尚未在服务器市场被接受,市场吸引力不大,但AMD推出了K12项目作为后继架构。
K12项目旨在推出一个平台,其解码器兼容x86和Arm指令集,并且引脚兼容x86和Arm。当时,AMD将其称为"双架构计算",甚至发布了技术概述。但最终,K12项目在发布之前就被取消了,原因是管理层决定优先开发Zen架构,以重新夺回x86市场的主导地位。现任AI处理器初创公司Tenstorrent首席执行官的Jim Keller当时负责AMD架构开发的工程工作,在一次回顾那段时光的采访中,他表示:“那是一个严重的管理失误。”
英伟达近期宣布入股英特尔,并在x86市场展开合作,这固然是对两家的公司的利好,但与此同时,扎根x86市场的AMD也有了新的危机感。
事实上AMD所处的环境自10年前以来发生了翻天覆地的变化,一方面,技术创新的主流已经从CPU转向GPU,另一方面,随着chiplet架构的发展,引脚兼容的概念已经过时,最重要的是,AMD现在拥有同时开发两种不同架构的财力。
对于AMD而言,押注Arm似乎是面临自身GPU短期难以直接与英伟达竞争情况下,相对最合理的选择之一了。
巨头转向
为何巨头纷纷“变心”?
事实上,随着如今AI发展进入深水区,GPU赖以为傲的通用性反而成了成为束缚,随着AI模型的参数量和部署规模呈指数级上升,给了ASIC与Arm登上舞台的契机。从底层逻辑看,巨头之所以纷纷押注Arm与ASIC,是因为AI时代的算力需求已经从“通用计算”转向“专用计算”。
GPU之所以在早期称霸,是因为它为AI训练提供了足够的并行计算能力,能灵活应对不同模型的训练需求;但在AI模型进入部署和推理阶段后,能耗、延迟、成本成为新的关键约束,通用GPU庞大的架构反而带来了冗余。ASIC恰恰通过“定制化计算路径”实现了极致的能效比,在不牺牲性能的前提下,将每一颗晶体管都用于最关键的运算任务。
与此同时,Arm架构成为这一趋势的自然延伸。其低功耗、高可扩展的特性,使其在AI推理、边缘计算、智能终端中获得青睐。无论是亚马逊和微软,还是谷歌和Meta,都在用事实证明:x86的霸权正在被削弱,而Arm的灵活授权模式与开放生态正成为AI基础设施的新底座。
对传统巨头而言,转向Arm和ASIC的战略并非单纯的“追风口”,而是一场突破瓶颈,力图争取更大市场的结构性转型:
英特尔希望以ASIC定制服务为突破口,弥补AI芯片代工与设计的落差,借助自身IDM模式打造设计+制造+封装的系统型竞争力;
高通借助移动端的Hexagon NPU积累,从边缘AI向云端推理延伸,意图通过低功耗ASIC系统重塑数据中心能效结构;
联发科依托高速SerDes与内存整合优势,切入CSP的AI ASIC供应链,用高性能+高性价比赢得谷歌与Meta订单;
AMD则以Arm架构探索新型APU,试图在PC与低功耗AI场景建立差异化优势,避免被英伟达与x86生态完全锁死。
最后,更深层次的原因在于:AI芯片产业的价值重心正在“去中心化”。过去,芯片公司卖的是产品,而现在卖的是能力——算力、IP、设计服务、生态接口。定制化的ASIC与可授权的Arm架构,恰好构成了这种去中心化的底层载体,让不同公司能够在特定场景中重新定义竞争规则。因此,当GPU的黄金时代进入瓶颈期,AI算力的竞争正悄然分流:一条通向“更通用、更昂贵”的高端GPU计算;另一条,则走向“更专用、更高效”的ASIC+Arm体系。
展望未来,AI基础设施将愈来愈往专用芯片而非通用芯片靠拢,届时谁能争取更多的云巨头订单,谁就有望在下一个半导体行业的十年里独占鳌头。
的真实性如本站文章和转稿涉及版权等问题,请作者及时联系本站,我们会尽快处理。
网址:https://www.icpdf.com/news/2431.html
热门文章
- 最新全球晶圆代工 TOP10 榜单出炉,产业发展态势解读 2025-06-10
- 移为(Queclink )GV55 2G小型车载智能终端 20230901 2024-09-12
- HBM 技术路线图及 HBM4 关键特性解析 2025-06-24
- 芯片霸主易主:英伟达崛起 2025-04-22
- IGBT 成新兴领域 “芯” 引擎,驱动行业变革 2025-09-01
- ABLIC(艾普凌克)传感器产品选型手册 2024-09-27
- 英特尔发声:未来芯片制造刻蚀或成关键 2025-06-20
- 树莓派5重磅升级:16GB内存版强势登场,引领AI创新新纪元 2025-01-10
- 中国科学家芯片研究:攻克模拟计算低精度 “世纪难题” 2025-10-15
- 台积电 SoW - X 封装技术:集成 80 个 HBM4,引领 AI 半导体未来 2025-06-13