您的位置:首页 > 新品速递 > 正文

3nm 技术新突破!博通 Jericho4 芯片助力分布式 AI 发展

时间:2025-08-07 13:09:32 浏览:20

博通公司推出了又一款具有重要意义的 3nm 芯片 —— 新版 Jericho 网络芯片。随着人工智能技术的飞速发展,AI 数据中心的规模日益庞大,云服务公司面临着如何处理老旧、小型设施的难题。博通的这款芯片,或许为解决这一问题提供了新的思路。

博通核心交换机事业部高级副总裁兼总经理 Ram Velaga 表示,新版 Jericho 网络芯片能以更快的速度传输更大量的数据。这一特性使得客户可以将多个较小的数据中心连接起来,构建一个用于开发或运行 AI 模型的大型系统。具体而言,Jericho4 产品能够连接多个数据中心的 100 多万个处理器,其处理的信息量约为上一代产品的四倍。

目前,博通已开始出货 Jericho4 交换机系列,并将其定位为适用于现代数据中心横向扩展 AI 的最先进以太网路由芯片。该芯片专为满足分布式 AI 基础设施日益增长的需求而设计,提供了高达 51.2Tbps 的无损、深缓冲以太网性能。这意味着 AI 工作负载可以轻松地跨机架、集群乃至地理上分散的位置进行扩展,而不会影响可靠性或性能。

随着人工智能模型的规模和复杂性持续增长,它们正迅速超越单个数据中心的容量和物理限制。将 XPU(如 GPU 和 TPU 等加速器)分布在多个耗电量达兆瓦级的设施中,也带来了一系列新的网络挑战,包括需要在城域甚至区域距离内实现无损、低延迟和高带宽的传输。Ram Velaga 强调,AI 时代需要能够支持超过一百万个 XPU 的分布式计算环境的网络解决方案。Jericho4 系列旨在构建能够超越单个数据中心边界的 AI 规模以太网交换架构,支持长距离 RoCE(融合以太网上的远程直接内存访问)传输、先进的拥塞控制和高效的互连。

1.png

Jericho4 系列具有众多亮点与差异化优势:

51.2Tbps 可扩展、深缓冲容量:对于需要在数千个 GPU 或加速器之间移动大量数据的 AI 工作负载而言,这一吞吐量至关重要。其 “深缓冲” 特性使其能够管理大量数据突发而无需丢弃数据包,即使在网络拥塞的情况下,也能确保分布式 AI 训练的高性能和高可靠性。

3.2T HyperPort 接口:HyperPort 将四个 800GE(800 Gigabit Ethernet)端口组合成一个 3.2Tbps 的通道,简化了网络设计和管理。这减少了交换机和服务器之间所需的链路数量,同时最大限度地减少了数据包重排序和网络效率低下的问题。用户可以实现高达 40% 的作业完成速度提升和高达 70% 的网络利用率提升,从而加快 AI 模型训练速度并更高效地利用计算资源。

支持 20 万 + 安全策略的线速 MACsec:MACsec(媒体访问控制安全)是在以太网层加密数据的标准。Jericho4 交换机支持全线速 MACsec,可在不损失性能的情况下进行加密和解密。凭借对超过 20 万条安全策略的支持,它能够实现精细的安全控制,这对于多租户环境或 “新型云”(Neo Clouds)至关重要,确保了敏感的 AI 数据在大型共享基础设施中快速移动时的安全。

端到端拥塞管理和 RoCE 无损传输:AI 工作负载容易受到网络拥塞和数据包丢失的影响,这会减慢分布式训练的速度。Jericho4 的深缓冲架构和基于硬件的拥塞管理功能,可利用 RoCE 实现无损传输,确保在超过 100 公里的距离上进行可靠的数据传输。这些功能对于连接分布式数据中心或 AI 集群至关重要,能够提供一致的性能和可靠性。

每比特功耗降低 40%:随着数据中心为支持更大的 AI 模型和更多用户而不断扩展,能源效率至关重要。与前几代产品相比,Jericho4 的架构使每比特数据传输的功耗降低了 40%。这不仅降低了运营成本,还帮助企业实现可持续发展目标,从而在不大幅增加能源消耗的情况下扩展 AI 基础设施。

具有业界领先传输距离的 200G PAM4 SerDes:SerDes(串行器 / 解串器)技术支持通过铜缆或光纤链路进行高速数据传输。Jericho4 芯片支持 200G PAM4 SerDes,使其能够比以往技术在更长的距离上实现更快的数据速率。这使得交换机和服务器可以在更广阔的数据中心园区内或楼宇之间进行连接,而不会牺牲速度或可靠性。

符合超级以太网联盟(Ultra Ethernet Consortium)标准:超级以太网联盟致力于推广用于高性能计算和 AI 的以太网标准。Jericho4 的合规性确保了其与其他超级以太网设备的无缝兼容,从而保护投资并使网络能够适应未来的 AI 和云工作负载。

广泛的端点兼容性:Jericho4 兼容任何使用以太网的网络接口卡(NIC)或 XPU(如 GPU 或 DPU)。这种灵活性使组织能够集成各种计算和存储端点,支持多样化的 AI 架构和供应商解决方案,而无需局限于单一的生态系统。

AI网络:Jericho4架构因其管理持久性、高带宽AI流量的能力而脱颖而出。通过利用HyperPort技术,它消除了传统的瓶颈和低效问题,为可扩展的AI网络提供了更高的吞吐量和更低的延迟。随着组织在园区、城域甚至更广泛的地理范围内部署AI工作负载,这一点尤为重要。

现场部署已经证明了Jericho4的可靠性和有效性,能够支持超过100公里距离的可扩展AI设计。这使Jericho4成为下一代分布式AI基础设施的关键技术。

2.png

单个Jericho4系统可扩展至36,000个HyperPort,每个端口以3.2Tb/s的速度运行,具备深缓冲、线速MACsec以及超过100公里的RoCE传输能力。部署选项包括采用Jericho线卡的机箱式系统、采用Jericho叶交换机和Ramon脊交换机的分布式调度交换架构(DSF)以及固定式集中系统,所有这些都利用了博通的高基数、低延迟和高能效架构。

Jericho4 是博通完整的以太网 AI 平台的重要组成部分,该平台还包括用于 AI 横向扩展和纵向扩展的 102.4Tbps 交换机 Tomahawk 6、用于 HPC 和 AI 纵向扩展的 51.2Tbps 低延迟交换机 Tomahawk Ultra、AI 优化的以太网 NIC Thor 系列以及包括中继器(retimers)、DSP 和第三代共封装光学(CPO)器件的物理层产品。这些产品共同为构建任何规模的基于以太网的 AI 基础设施提供了一个开放、可扩展的平台 —— 从紧密互连的 GPU 集群到区域性部署。

博通的 Jericho4 进入了一个竞争激烈的市场。超大规模数据中心运营商和 AI 基础设施提供商都旨在克服传统 InfiniBand 和传统以太网解决方案的局限性。英伟达(NVIDIA)凭借其基于 InfiniBand 的 Quantum 和 Spectrum-X 以太网交换机,在 AI 网络领域仍然是主导者,尤其是在紧密耦合的 GPU 集群中。然而,以太网的开放性、成本效益和生态系统支持正在推动行业向基于以太网的 AI 交换架构转变,特别是在横向扩展和多站点部署方面。其他竞争对手,如思科(Cisco)的 Nexus 系列和 Arista Networks,也在大力投资高性能、AI 优化的以太网交换技术。不过,博通的深缓冲、无损架构,结合其在芯片创新和生态系统整合方面的领导地位,为 Jericho4 提供了极具吸引力的价值主张 —— 特别是对于那些旨在构建开放、可扩展且面向未来的 AI 基础设施的组织而言。

综上所述,博通的 Jericho4 芯片在性能、功能和兼容性等方面都具有显著优势,有望在 AI 网络市场中占据重要地位,为分布式 AI 基础设施的发展注入新的动力。