您的位置:首页 > 行业资讯 > 正文

AI SSD 热潮来袭,存储大厂各展神通

时间:2025-08-11 13:34:59 浏览:63

在当今科技飞速发展的时代,人工智能(AI)技术正以前所未有的速度改变着我们的生活和工作方式。而在 AI 发展的背后,存储技术的支持至关重要。近期,存储行业可谓热闹非凡,各大存储大厂纷纷推出专为 AI 应用打造的 SSD 产品,AI SSD 市场正逐渐成为行业焦点。

存储大厂纷纷布局 AI SSD

8 月 5 日,美光一口气推出了三款基于美光 G9 NAND 打造的数据中心 SSD,号称能满足多样化 AI 工作负载需求。无独有偶,铠侠也推出了专为生成式 AI 需求打造的 245.76TB NVMe SSD;此外,闪迪发布最新的 256TB AI 专用 SSD。这些存储大厂们接连放大招,发布 SSD 产品,并且特意强调 “赋能 AI”,足见 AI SSD 市场的巨大潜力。

AI 发展推动 AI SSD 崛起

在 AI 发展进程中,训练与推理两大核心环节对存储的特殊需求,直接推动了 AI SSD 的快速崛起。与标准固态硬盘不同,AI SSD 专为处理深度学习、神经网络训练和实时数据分析等人工智能应用的巨大数据吞吐量、低延迟和高 IOPS(每秒输入 / 输出操作数)需求而设计。

AI 训练:高要求的存储需求

大模型迭代速度迅猛,每一次升级都伴随着训练数据量的指数级增长,PB 级数据已成为 AI 训练的基本门槛。训练环节涉及 GPU、HBM 及承担快照、日志功能的 SSD 等组件,且对存储的要求远高于推理环节。

在训练过程中,系统需要反复读取和写入巨量数据,包括训练语料、模型参数、日志文件和中间结果等。数据流动的频率极高、负载持续,IO 密度远超日常应用。在 AI 模型训练过程中,SSD 不仅负责储存模型参数,包含不断更新的权重和偏差,而且可以创建检查点(check point),以定期保存 AI 模型训练进度,即使训练中断也能从特定点恢复。上述功能都相当依赖高速传输以及写入耐用度,因此客户主要选择使用 4TB/8TB TLC SSD 产品,以满足严苛的训练过程需求。

AI 推理环节:SSD 的核心支撑作用

AI 推理环节中,SSD 可在推理过程中协助调整、优化 AI 模型,尤其 SSD 可以实时更新数据,以便微调推理模型结果。AI 推理主要提供检索增强生成(RAG, Retrieval-Augmented Generation)和大型语言模型(LLM, Large Language Model)服务,而 SSD 可以储存 RAG 和 LLM 参考的相关文档和知识库,以生成含有更丰富信息的响应。目前 TLC/QLC 16TB 以上等大容量 SSD 便成为 AI 推理主要采用的产品。

11.png

AI 对存储 “高性能、大容量、高能效” 的三重刚需,让 SSD 成为 AI 场景下的最优解。TrendForce 数据显示,全球范围内,2024 年 AI 相关的 SSD 采购容量将超过 45EB,未来几年,AI 服务器有望推动 SSD 需求年增率平均超过 60%,而 AI SSD 需求在整个 NAND Flash(闪存)的占比有机会自 2024 年的 5%,上升至 2025 年的 9%。

大厂 AI SSD 比拼,各有神通

1.铠侠:AI SSD,两方面入手

铠侠在今年公布了 AI 时代中长期增长战略。重点围绕 AI 驱动的存储技术创新、SSD 业务拓展及资本效率优化,以巩固其在 NAND 闪存市场的竞争力。对于 AI SSD 有两类产品线:第一类是高性能 SSD。铠侠的 CM9 系列,专为 AI 系统设计,搭载针对数据中心优化的 PCIe 5.0,最大限度地发挥需要高性能和高可靠性的 GPU 功能。第二类是容量型 SSD。铠侠的 LC9 系列,适用于推理中使用的大型数据库等用例,当时容量为 122.88 TB,未来计划推出更大容量产品。前两天,铠侠推出了新的容量 ——245.76TB。据了解铠侠 LC9 系列 SSD 采用的也是 QLC 3D 闪存,但是特点是结合了 CBA(CMOS 直接键合到阵列)技术,这就能够实现在 154 球栅阵列(BGA)小型封装中达到 8 TB 的容量。铠侠称这是业界首创。

对于未来的 AI SSD,铠侠也提出了自己的设想,主要从两个方面突破。第一是速度更快。现在的 SSD 每秒能处理 200 万 - 300 万次小文件读写,多采用 TLC 和 QLC ,而新产品将采用 XL - FLASH 的 SLC 闪存 ,速度提升到每秒 1000 万次以上 ,特别适合 AI 需要频繁读取零碎数据的场景。这里解释一下,XL - FLASH 是铠侠开发的具有极低延迟、高性能 NAND,用于填补易失性存储器(如 DRAM)和当前闪存之间存在的性能缺口。最开始铠侠把 XL - FLASH 定位为英特尔已停产的 Optane 内存的竞争对手。目前,铠侠的第二代 XL - Flash 采用 MLC(多层单元)架构,密度翻倍,芯片容量从 128Gb 提升至 256Gb。第二是更智能。目前 AI 检索数据要依赖内存,2026 年铠侠将推出 AiSAQ 软件 ,让 SSD 自己就能处理 AI 的检索任务。这样不仅能减轻内存负担,还能让 AI 应用运行更高效,尤其适合智能终端和边缘计算设备。

2.美光:AI SSD 三剑客

美光最新发的AI SSD是三款。

第一款是美光9650 SSD,全球首款PCIe 6.0的SSD,主要用在数据中心领域。能够提供28 GB/s的性能。据美光测试,相较于PCIe 5.0 SSD,9650 SSD的随机写入与随机读取的存储能效分别提升高达25%和67%。

第二款是美光6600 ION SSD,单盘容量最高达245TB,主要应用在超大规模部署与企业级数据中心整合服务器基础设施、构建大型AI数据湖。相较于竞品,该产品的存储密度提升高达67%,单机架存储容量突破88PB,大幅降低总体拥有成本(TCO)。

第三款是美光7600 SSD,主要用于AI推理与混合工作负载。据称,能够在高度复杂的RocksDB工作负载下实现业界领先的亚毫秒级延迟。

从美光推出的产品来看,瞄准的正是:速度、容量、性价比。从美光最新的财报来看,截至2025年5月29日,美光Q3财季营收93亿美元,同比增长37%;净利润21.81亿美元,同比增长210.7%。其中,美光的NAND收入21.55亿美元,占总收入的23%,环比增长16.2%。NAND Bit出货量环比增长约25%。美光表示,2025财年有望实现创纪录的营收。

3.Solidigm:优化 AI 效率的存储产品组合

Solidigm 将 AI 存储方案大致分为两类。一类是,直连式存储(DAS),针对训练等对性能极度敏感的场景,它更关注单位功耗下的 IOPS;另一类是网络存储(包括 NAS 文件 / 对象存储),针对数据摄取、归档和 RAG(检索增强生成)等大容量场景,对读性能要求较高,同时也追求最低成本存储海量数据。

2.png

目前,Solidigm 构建了覆盖 SLC、TLC 和 QLC 的完整 SSD 产品序列。从高性能的 D7 系列到高密度的 D5 系列,Solidigm 能够为数据摄取、准备、训练、检查点、推理和归档等 AI 全流程的各个环节,提供最合适的产品。这其中包括了 D7 - PS1010、D7 - PS1030PCIe 5.0 SSD,大容量 D5 - P5336QLC SSD 等。Solidigm 在 AI SSD 中的另一个亮点是 QLC SSD。自 2018 年发布首款 QLC SSD 以来,Solidigm 已累计出货超过 100EB 的 QLC,并为全球 70% 的领先 OEM AI 解决方案提供商提供服务。Solidigm 不仅推动 QLC 技术的普及与应用,还在液冷 SSD 技术领域进行大胆尝试。2025 年 3 月,Solidigm 展示其首款采用 SolidigmD7 - PS1010 E1.S 9.5mm 外形规格的冷板液冷 SSD,该方案显著提升了散热效率。

AI SSD 未来发展趋势

尽管大多数 AI SSD 预计是在 2026 年推出,但从前文的对比来看,AI SSD 已经有了雏形。从颗粒的选择上,AI SSD 会朝着 QLC 颗粒方向走。铠侠 CEO 柳茂知也表示,QLC SSD 是 AI 行业最好的选择。尽管从 SLC 到 MLC,再到 TLC,最终到 QLC,SSD 的性能一直在下降,但随着技术的演变,2025 年 QLC SSD 的速度已经比 2017 年的 TLC SSD 快很多了。如今 QLC SSD 的顺序读写速度可达 7000MB/s 左右,性能十分强大,能够满足 AI 大模型数据存储和调用的要求。

10.png

从实际测试中,Solidigm 构建了一个新 100 兆瓦 AI 数据中心的模型,评估 QLC 固态硬盘、TLC 固态硬盘和基于机械硬盘的混合部署的影响。其中发现,QLC 固态硬盘的能效比 TLC 固态硬盘高 19.5%;比混合 TLC 固态硬盘和机械硬盘高 79.5%,同一数据中心内,使用 QLC 固态硬盘时可部署的全套 AI 基础设施数量更高。从传输接口与协议层面来看,采用 PCIe 接口并支持 NVMe 协议,未来大概率会成为 AI SSD 的标准配置。PCIe 接口凭借不断升级的带宽能力,从 PCIe 3.0 发展到如今的 PCIe 5.0,目前业内已经推进到了 PCIe 7.0(6 月份发布了)。

可以从前文看到,目前推出的 SSD 大多是支持 PCIe 5.0 的,美光已经推出了 PCIe 6.0 的产品,顺序读取速率高达 28GB/s,到明年有竞争力的 AI SSD 应该都用上 PCIe 6.0。不过,PCIe 目前在成本上还是比较昂贵 , 首批 PCIe 6.0 SSD 产品价格高达 500 - 800 美元(1TB),是普通 PCIe 4.0 SSD 的 3 倍 - 5 倍。同时,产品需搭配支持 PCIe 6.0 的 CPU 及主板。此外,NVMe 协议专门针对闪存存储进行优化,为 SSD 提供了极高的 I/O 吞吐量和低延迟,这对于减少数据访问瓶颈非常重要。在 PCIe 接口之上构建了高效的数据访问机制,极大地降低了延迟,提升了 IOPS 性能,能充分发挥闪存的快速读写特性。随着技术发展,PCIe 接口和 NVMe 协议还会持续演进,融入如 CXL 等新兴技术。

AI SSD 赛道竞争激烈

AI SSD 的赛道,越来越拥挤。从云端训练到边缘推理,存储不仅要保证基础性能,更需要与 AI 计算流程深度适配。存储厂商正在调整技术路线,从单纯追求性能指标转向优化整体系统协同。这种转变反映了行业对 AI 工作负载特性的深入理解。当前的技术竞争焦点,已从硬件参数的比拼,转向如何实现存储与计算的无缝配合。毕竟在 AI 时代,最好的 SSD 不是跑分最高的那块,而是让 AI “忘记” 存储存在的那块。

AI SSD 市场前景广阔,但也面临着诸多挑战。随着 AI 技术的不断发展,对存储的要求也会越来越高。存储厂商需要不断创新,推出更符合 AI 需求的产品,才能在激烈的市场竞争中立于不败之地。未来,我们有理由相信,AI SSD 将在 AI 领域发挥更加重要的作用,推动 AI 技术不断向前发展。


版权声明: 部分文章信息来源于网络以及网友投稿.本网站只负责对文章进行整理、排版、编辑.是出于传递更多信息之目的.并不意味着赞同其观点或证实其内容
的真实性如本站文章和转稿涉及版权等问题,请作者及时联系本站,我们会尽快处理。

网址:https://www.icpdf.com/news/2084.html