您的位置:首页 > 新品速递 > 正文

英伟达 SOCAMM 技术延迟,内存市场策略调整引关注

时间:2025-05-16 10:17:41 浏览:41

在电子行业,英伟达一直是备受瞩目的科技巨头,其技术动态往往影响着行业的发展走向。据最新消息,Nvidia 已推迟其下一代低功耗 DRAM 模块 “SOCAMM(小型压缩附加内存模块)” 的商业化进程。原本预计首先采用 “SOCAMM” 的是 “Blackwell” 系列,而如今计划变更为首先采用 “Rubin” 系列。

这一决策被解读为在近年来人工智能加速器性能不断提升,但产量稳定性难以确保的情况下,英伟达为确保最大稳定性而采取的一种策略。据悉,韩国三星电子、SK 海力士、美国美光等内存供应商也纷纷相应调整了 SOCAMM 的供货计划。

据业内人士 14 日透露,Nvidia 已通知其主要内存合作伙伴,将 SOCAMM 的应用时间从 “GB300” 推迟至下一代产品。SOCAMM 是 NVIDIA 一直致力于开发的具有自主标准的下一代内存模块。它通过集成四个 LPDDR 低功耗 DRAM,显著提高了电源效率。与现有的将 LPDDR 组件通过焊接连接到板上的方法不同,SOCAMM 的内存可以拆卸,这使得性能升级和维护更加便捷。作为数据传输通道的 I/O(输入 / 输出端子)数量达到 694 个,与移动 PC 等中使用的另一种基于 LPDDR 的模块 LPCAMM(644 个 I/O)相比,其带宽较高,非常适合需要大容量数据处理的 AI 运算。

0.png

Nvidia 最初计划将 SOCAMM 纳入今年下半年发布的 GB300 中。GB300 是搭载 NVIDIA Blackwell Ultra GPU、Grace CPU、12 层 HBM3E 的新一代 AI 加速器。作为 GB300 芯片基板的主板也由现有的‘Bianca’变更为‘Cordelia’。Bianca 结合了一个 CPU 和两个 GPU,而 Cordelia 是将两个 CPU 和四个 GPU 结合在一起的结构,其接口结构和设计也有所不同。然而,NVIDIA 最近将 GB300 主板的风格从 Cordelia 改回了 Bianca 风格,低功耗 DRAM 模块也改为搭载现有的 LPDDR,而非 SOCAMM。

Nvidia 推迟 SOCAMM 的部分原因是 GB300 主板设计的变更。最初,GB300 计划采用代号为 “Cordelia” 的主板设计,但后来过渡到代号为 “Bianca” 的现有设计。据称,Cordelia 除了在主板上嵌入两个 Grace CPU 和四个 Blackwell GPU 外,还利用了 SOCAMM 内存。而 “Bianca” 仅搭载一个 Grace CPU 和两个 Blackwell GPU,并且不支持 SOCAMM(而是使用现有的 LPDDR 内存)。据报道,Cordelia 的可靠性是此次更换的原因,较新的主板设计不可靠,容易导致数据丢失。同时,SoCAMM 的可靠性也存在问题,并且存在散热问题,从而影响了其整体可靠性。

此外,Nvidia 还面临着供应链问题,这也是导致 SOCAMM 延迟的原因之一。这家市值万亿美元的巨头在努力为即将推出的 GB300 建立供应链的过程中,难以控制良率。改用现有技术(包括采用传统 LPDDR 内存的旧版主板设计)将有助于 Nvidia 解决其供应链问题。这一决策被解读为一种避免过度技术进步的尝试,因为最新的 Blackwell 芯片在确保设计和封装产量方面一直面临困难。

相应地,三星电子、SK 海力士、美国美光等主要存储器公司预计将在一定程度上调整其下一代存储器量产策略。一位知情人士表示,“技术问题不是很严重,但 Nvidia 考虑到新产品发布时间表和必要性,推迟了 SOCAMM 的应用”,“据我了解,他们已经将这一情况通知了三星电子、SK 海力士和美光这三家内存公司”。另一位相关人士表示,“NVIDIA 从 GB300 开始扩大供应链,在管理良率方面遇到了困难,因此呈现出尽可能利用现有平台的趋势”,并补充道,“三星电子、SK 海力士等也决定推迟 SOCAMM 的量产计划”。

值得一提的是,美光、三星和 SK 海力士推出了采用 LPDDR5X 内存的小尺寸压缩连接内存模块 (SOCAMM),旨在满足人工智能和低功耗服务器的需求。SOCAMM 的尺寸为 14x90 毫米(仅为传统 RDIMM 的三分之一),最多可承载四个 16 芯片 LPDDR5X 内存堆栈。美光科技的首批 SOCAMM 模块将提供 128GB 的容量,并将基于该公司基于 1β(第五代 10 纳米级)DRAM 工艺技术生产的 LPDDR5X 内存设备。美光科技并未透露其首批 SOCAMM 内存条支持的数据传输速率,但表示其内存的额定速度高达 9.6 GT/s。与此同时,SK 海力士在 GTC 2025 上展示的 SOCAMM 的额定速度高达 7.5 GT/s。

内存消耗了服务器功耗的很大一部分。例如,在配备每插槽 TB 级 DDR5 内存的服务器中,DRAM 的功耗超过了 CPU 的功耗。Nvidia 的 Grace CPU 基于 LPDDR5X 内存设计,其功耗低于 DDR5,但采用了宽内存总线(借鉴了 AMD 和英特尔的数据中心级处理器),以提供高内存带宽。然而,对于基于 GB200 Grace Blackwell 的机器,Nvidia 不得不使用焊接式 LPDDR5X 内存封装,因为没有标准的 LPDDR5X 内存模块能够满足其容量需求。美光的 SOCAMM 改变了这一现状,它提供了一种标准模块化解决方案,可容纳四个 16 芯片 LPDDR5X 内存堆栈,从而可能提供相当惊人的容量。美光表示,其 128GB SOCAMM 的功耗仅为 128GB 容量 DDR5 RDIMM 的三分之一,这是一个巨大的进步。

遗憾的是,目前尚不清楚美光的 SOCAMM 是否会成为 JEDEC 支持的行业标准,还是会继续作为美光、三星、SK 海力士和英伟达为运行 Grace 和 Vera CPU 的服务器开发的专有解决方案。美光的 SOCAMM 内存条已投入量产,因此基于英伟达 GB300 Grace Blackwell Ultra 超级芯片的系统预计将采用这款内存。模块化内存简化了服务器的生产和维护,这将对这些设备的价格产生积极影响。美光科技高级副总裁兼计算与网络业务部总经理 Raj Narasimhan 表示:“人工智能正在推动计算领域的范式转变,而内存是这一变革的核心。美光科技对 Nvidia Grace Blackwell 平台的贡献,为人工智能训练和推理应用带来了显著的性能和节能优势。HBM 和 LPDDR 内存解决方案有助于释放 GPU 更强大的计算能力。”