您的位置:首页 > 行业资讯 > 正文

博通九成市占率称霸交换器市场,高调迎战 AMD 和英伟达

时间:2025-08-14 13:15:39 浏览:43

在当下的科技领域,AI 热潮与大语言模型训练的兴起,使得数据中心里图形处理器(GPU)的数量持续攀升。而负责传输与连接、让众多 GPU 得以高速交换数据的中枢交换器,其地位变得前所未有的重要。尽管交换器在整体数据中心建置成本中占比不到 3%,但它却如同让伺服器 GPU、中央处理器(CPU)甚至机柜间的数据畅行无阻的水管。管线宽度与流速,直接决定了算力能否得到淋漓尽致的发挥。按照业界标准,平均约十颗 GPU 就需要搭配一颗交换器。调研机构 MRFR 估算,2024 年数据中心用交换器市场规模达到 180 亿美元,未来 10 年更将以 5.8%的年复合成长率扩张。

1.png

在交换器市场,博通(Broadcom)是称霸十多年的业界龙头。由于手握与既有数据中心架构相容的优势,即便其产品价格较高,却仍经常供不应求。过去曾有迈威尔(Marvell)等芯片设计公司推出竞品,但最终都折戟沉沙。如今,博通在云端数据中心以太网络交换器的市占率仍高达九成。博通资深副总裁暨核心交换器部门总经理拉姆(Ram Velaga)接受《今周刊》专访时自豪地指出,博通的高阶交换器之所以傲视全球,是因为具有简化网络、减少光纤使用数量、提高可靠性和改善性能等效益。“我们近年新推出的交换器芯片,更是多年来需求最高的一批产品。” 他透露。

拉姆早年出身网通设备龙头思科(Cisco),2012 年跳槽博通主管核心交换器芯片,十多年来带领部门打下大片江山。尽管博通近几年受惠客制化芯片(ASIC)需求,业绩大幅成长,但在半导体营收中,AI 网通产品仍占四成。2025 年第二季网通营收达到 34 亿美元,网通芯片更较去年度成长 170%,主要动能就来自交换器芯片。对于交换器芯片的爆发性成长,拉姆解释道,网通一直是博通专注的核心事业之一,拥有最强的研发团队、最先进的制程节点经验能力以及大量矽智财(IP)。“过去十年多里,我们每 18 到 24 个月,就会将交换器频宽翻倍、进而推出领先全业界的交换器芯片,所以,这不是偶然。” 他表示。此外,有别于过去同业思科只想用一颗芯片通吃云端、企业及电信需求,博通认为,在芯片空间有限的情况下,必须针对不同应用有所取舍。因此博通针对市场需求推出差异化产品,例如 Tomahawk 是对应最高阶云端需求,Jericho 主攻电信级机柜互联市场、Trident 则专注于企业级应用。

然而,尽管在交换器市场独领风骚多年,博通近期却感受到明显的竞争压力。英伟达与超微(AMD)两家 AI 芯片巨头,正虎视眈眈地准备抢攻这项 AI 伺服器的必要配备。英伟达自 2018 年开始,陆续以自家高速互联架构 “NVLink” 与 “InfiniBand” 为核心,推出配合的交换器芯片,并采 “GPU 加交换器绑定出货” 的配货策略,吸引云端业者将其纳入第二供应商,业界估计最高可能吃下两成市占,严重侵蚀博通版图。AMD 近期也号召成立 “UALink” 架构,以过去英特尔力推的 PCIe 架构为基础,主打以开放规格挑战英伟达的封闭生态圈,已吸引苹果、亚马逊以及微软、Meta、思科等大咖加入。外界预期,明年就会有芯片商推出符合 UALink 规范的交换器芯片。

面对这样的竞争态势,一向低调的博通开始公开活动明显增加。拉姆在开放运算计画(OCP)亚太峰会首度移师台湾时现身,“固桩” 意味浓厚。在 OCP 上,博通大谈今年五月发布的 SUE(Scale Up Ethernet)架构,这是一项基于开放标准的以太网络规格所推出的垂直扩充运算技术,能做到高频宽、低延迟,在成千上百个 GPU、CPU 芯片间高速连接。相较于 UALink,SUE 架构虽非由第三方组织设计的标准,但因为是基于以太网络规格设计,能与现有数据中心广泛采用的以太网络交换器生态系相容。拉姆表示,SUE 针对所有公司开放,不需要像 NVLink 一样须取得英伟达授权。当被问到博通的优势时,拉姆霸气回应:“我们拥有世界上最低延迟的交换器芯片,所以会比其他交换器来得更好。”

在 OCP 圆桌论坛上,拉姆与 AMD 架构与策略总监、UALink 联盟董事会主席柯提斯(Kurtis Bowman)针锋相对。柯提斯暗酸 SUE“根本不是一个标准,只是博通标准、规格的漂白”,还指控 SUE 目前没有针对数据传输的延迟性提出规范。拉姆则大动作回应:“提出这问题代表你根本不懂以太网络,以太网络从来不在标准中定义延迟,客户会选择自己喜欢的低延迟交换器……,你们想订延迟标准,是因为不知道怎么设计低延迟的交换器吧?” 他还质疑,UALink 背后的规格 PCIe,过去主要服务于短距离芯片传输,较难像以太网络一样,拥有支援数千个处理器间的长距离传输能力。

除了在市场竞争方面的动态,博通在技术研发上也有新的进展。随着各大公司试图构建超级计算机,涵盖数十万到数百万个 GPU 和 XPU,用于训练大型模型,对于 AI 数据中心来说,数据中心互连的需求愈发迫切。长期以来,思科系统、瞻博网络(现为惠普企业的一部分)和华为技术有限公司向数据中心运营商出售带有定制 ASIC 的大型路由器,但超大规模数据中心运营商和云服务提供商无法接受这些巨头的成本。于是,他们说服 Dune Networks(2009 年 11 月被博通以 1.78 亿美元收购)和博通等商用交换机芯片制造商,开始在其交换机芯片中添加路由功能。

上周,博通推出了 Jericho 4 交换机 / 路由器芯片及其相关的 Ramon 4 结构元件,提升了其能够处理的数据中心互连和深度分组交换任务的容量。Jericho 4 定位为将挤满 GPU 和 XPU 的数据中心大厅互连成拥有 100 万个计算引擎共享工作的集群的手段。Jericho 4 的一大创新是 Broadcom 称之为 HyperPort 的东西,它是四个 800 Gb / 秒端口的聚合,可提供 3.2 Tb / 秒的带宽,但实际上它看起来像是 Jericho 4 交换机 / 路由器上运行的负载平衡软件的单个端口。这种设计大大减少了端口数量,降低了发生哈希、冲突或极化的可能性,比传统的 ECMP 链路聚合更好,在数据中心互连用例中,HyperPort 可以比以前的方法高 70% 的利用率驱动其组件链路。

与 Tomahawk 6 和 Tomahawk Ultra 芯片一样,Jericho 4 采用台湾半导体制造公司的 3 纳米工艺蚀刻而成,并且也采用了小芯片设计。Jericho 4 代表着 Jericho ASIC 产品线容量的大幅提升。早在 2018 年 3 月发布的 Jericho 2 芯片于 2019 年 2 月开始量产,其总带宽高达 9.6 Tb / 秒,能够以 400 Gb / 秒的速度驱动 24 个端口。2023 年 4 月推出的 Jericho 3 - AI 总带宽达 51.2 Tb / 秒,可在单个网络中横向扩展至 32,000 个 GPU。而 Jericho 4 的带宽是 Jericho 3 - AI 上缓冲内存的 2 倍,管道变得更粗,并且更多的管道被组合起来,以驱动数据中心内更多的设备或跨数据中心的链接。

博通建议,对于想要在数据中心部署 100 万个 GPU 或 XPU 的公司,至少应该在跨机架的叶子 / 主干网络中使用 Tomahawk 6,并使用 Jericho 4 来连接每个拥有 250,000 个 GPU 或 XPU 的数据中心。Jericho 4 可以驱动长达 100 公里或更长的数据中心互连,还集成了 MACsec 加密技术,能在数据以线速进出 Jericho 4 设备时提供安全保护。与 Tomahawk 6 一样,Jericho 4 似乎也有两个版本,分别使用 100 Gb / 秒和 200 Gb / 秒的 SerDes,允许客户根据其网络需求选择所需的带宽和基数。目前,Jericho 4 芯片正在进行样品测试,预计将于 2026 年第一季度投入生产的交换机和路由器中。

在 AI 时代的连接战场上,博通凭借其技术优势和市场地位,在交换器市场与 AMD、英伟达展开激烈竞争。这场围绕数据中心连接架构的三方角力,才正要进入白热化阶段,未来的市场格局究竟会如何变化,值得我们持续关注。