英伟达瞄准 SOCAMM 内存,为 AI 产品性能提升疯狂备货
在人工智能技术飞速发展的当下,英伟达正积极布局,为其用于 AI 产品的模块化内存解决方案 (SOCAMM) 生产大量库存,以便更轻松地升级设备内存,从而获得卓越的性能和更高的效率。
在 2025 年的 GTC 大会上,英伟达展出了全新的 SOCAMM 内存。据悉,由于英伟达致力于在其 AI 产品上实现卓越性能和更低功耗,预计今年该内存的库存将有所增加。在此次大会上,我们可以看到英伟达的 GB300 平台采用了美光科技开发的 SOCAMM 内存,这与服务器和移动平台等 AI 产品上常用的 HBM 和 LPDDR5X 内存截然不同。
SOCAMM 内存基于 LPDDR DRAM,传统上 LPDDR DRAM 主要用于移动设备和低功耗设备。但与 HBM 和 LPDDR5X 等解决方案不同的是,SOCAMM 内存具有可升级的特点。它并非焊接在 PCB 上,而是通过三个螺丝固定。据韩国媒体 ETNews 最新报道,英伟达今年计划生产约 60 万至 80 万块 SOCAMM 内存,此次新内存的增产将全部用于英伟达的 AI 产品堆栈。
首批搭载 SOCAMM 内存的产品之一是最新的 GB300 Blackwell 平台,这已经暗示了英伟达打算为其众多 AI 产品过渡到新的内存规格。虽然今年 80 万片的目标产量远低于英伟达内存合作伙伴在 2025 年向其交付的 HBM 内存数量,但明年这一规模将开始扩大,尤其是在 SOCAMM 2 内存上市之后。
SOCAMM 内存采用定制外形,不仅紧凑模块化,而且比 RDIMM 更节能。虽然目前尚不清楚具体的节能改进幅度,但从报告中可以得知,SOCAMM 将提供卓越的效率,同时带来比 RDIMM 以及 LPDDR5X 和 LPCAMM 更高的带宽,而 LPDDR5X 和 LPCAMM 是移动平台最受欢迎的内存解决方案之一。SOCAMM 内存带宽约为 150 - 250 GB/s,并且可交换,为 AI PC 和 AI 服务器提供了多功能选择,并且可以轻松升级。在不久的将来,SOCAMM 有望成为低功耗 AI 设备的标配。目前,美光公司是英伟达的 SOCAMM 制造商,而三星和 SK 海力士据称也在与英伟达洽谈,希望为英伟达生产 SOCAMM 模块。
随着人工智能在各个行业创造新的市场,它也推动了小外形压缩附加内存模块 (SOCAMM) 的增长,这种新兴技术通常被称为 “下一代高带宽内存”。虽然 SOCAMM 不能直接替代 HBM 内存,但凭借其可扩展性和更低功耗要求,它可能在重塑全球内存芯片格局方面发挥同样重要且有利可图的作用。
全球顶级图形处理器供应商英伟达提出了一种新的服务器模块化内存芯片标准,该标准可在降低功耗的同时最大限度地提高性能,并专门为其即将推出的人工智能处理器量身定制。虽然 SOCAMM 的价格预计仅为 HBM(为 AI 处理 GPU 提供动力的昂贵内存芯片)的 25 - 33%,但领先的内存芯片制造商三星电子、SK 海力士和美光科技已加入竞争,以在新兴服务器模块市场中取得领先地位。
一位业内人士表示:“SOCAMM 市场对芯片制造商而言,其竞争性和战略重要性将不亚于 HBM 市场。真正的竞争在于,一旦搭载 SOCAMM 的服务器上市,谁能率先通过 Nvidia 的资格测试,并成为新服务器模块的主要供应商。”
SOCAMM 是一款专为 AI 服务器优化的紧凑型高性能内存模块。与使用 DDR5 构建的传统服务器模块不同,SOCAMM 采用 LPDDR,这是一种通常用于移动设备的低功耗芯片。它垂直堆叠多个 LPDDR5X(高级型号),以提升数据处理性能,同时显著提高能效。一位业内人士解释说:“虽然 DDR5 是服务器的标准,但功耗已成为大规模部署的一个主要问题。SOCAMM 的设计充分考虑了低功耗,而且随着移动 DRAM 性能的显著提升,它现在已可用于服务器。”
SOCAMM 拥有 694 个输入和输出引脚(微型接触点,使芯片能够发送和接收数据),数量远超传统的 DRAM 模块(262 个引脚),甚至 LPCAMM 的 644 个引脚。LPCAMM 是笔记本电脑的典型内存模块。更高的引脚数有助于减少数据瓶颈。SOCAMM 的另一个吸引人之处在于其模块化设计,用户可以轻松拆卸和更换以进行更新。该芯片预计将与 HBM 芯片一起使用,以增强 Nvidia 即将推出的 AI 处理器的性能。
Nvidia 计划在其下一代 AI 加速器 GB300 中同时使用 HBM 和 SOCAMM 芯片,该加速器计划于今年晚些时候推出。SOCAMM 模块预计将安装在配备 Nvidia AI 加速器的服务器中。据业内人士透露,这家 GPU 巨头还计划在其即将开发的名为 Project DIGITS 的个人 AI 超级计算机中使用 SOCAMM。该设备体积小巧,可轻松放置在桌面上,旨在让高性能 AI 计算更容易被大众接受。
在今年 Nvidia 的开发者大会 GTC 2025 上,美光科技率先宣布已经开始量产用于 Nvidia GB300 的 SOCAMM。据这家美国芯片制造商称,其 SOCAMM 模块的带宽是 RDIMM 的 2.5 倍以上,而功耗仅为 RDIMM 的三分之一。该公司补充说,紧凑的设计还有望实现更高效的服务器布局和更好的热管理。三星和 SK 海力士也在 GTC 2025 上展示了他们的 SOCAMM 原型。三星报告称,其功耗为 9.2 瓦,与基于 DDR5 的 DIMM 相比,电源效率提高了 45% 以上。这两家韩国芯片制造商尚未宣布量产计划,但表示正在做好准备,以便 “按照市场需求” 进入市场。一位业内官员表示:“美光公司似乎在早期批量生产方面处于领先地位,但这并不是为了立即安装服务器,而是为了进行早期优化。”
与此同时,SOCAMM 也被视为三星东山再起的机会。继在 HBM 芯片的 AI 内存竞争中落后于 SK 海力士之后,三星在今年 1 - 3 月期间失去了 DRAM 市场的头把交椅。这家芯片巨头在 AI 内存领域未能取得先机后,首次被规模较小的竞争对手超越。据业内人士透露,三星近期向英伟达交付了 SOCAMM 模块样品,数量远超竞争对手,这标志着其将努力在下一波 AI 内存市场中重新夺回领导地位。预计三星将利用其在 LPDDR 领域的主导地位,进军 SOCAMM 市场。据市场追踪机构 Omdia 的数据,去年第一季度,三星在移动 DRAM 市场的收入份额为 57.9%。

热门文章
- 台积电美国厂2025年下半年量产4nm芯片,成本预计高出中国台湾30% 2024-12-30
- 深度解读特斯拉 Dojo 芯片:应对核心故障与设计缺陷的绝技 2025-06-09
- 移为(Queclink )GV300W 3G全功能型车载智能终端 20230901 2024-09-12
- ALTERA(阿尔特拉)产品选型手册 2025-03-24
- 英伟达 6 月量产特供版 AI 芯片,瞄准中国市场 2025-05-27
- ITT Connon Trident 产品选型手册(中文版) 2024-09-25
- 温州迎来集成电路新纪元:星曜半导体晶圆产线投产,总投资达7.5亿元 2024-12-25
- 数据中心芯片竞争激烈,谁能成为最大赢家? 2025-06-05
- 荷兰携手英伟达,共筑AI超级设施硬件技术基石 2025-01-10
- 贸泽电子发售Renesas RA8M1语音套件,支持端到端语音方案 2024-09-06