NPU 崛起:芯片新赛道上的 AI 革命
在当今科技飞速发展的时代,芯片技术的创新与突破不断推动着人工智能(AI)领域的进步。近几年,神经处理单元(NPU)成为了 AI 浪潮中意外爆火的芯片之一。除了人手一部的智能手机,愈来愈多的笔记本电脑也开始内置 NPU,厂商不断吹捧的 AI 功能背后,都离不开 NPU 的助力。
然而,对于大多数人而言,NPU 仍然是一个相对陌生的概念。它与我们熟悉的 CPU、GPU 有何不同?为什么在 AI 时代突然变得如此重要?要理解 NPU 为何能在短短几年内从实验室的概念验证走向大规模商用,我们不妨从它最初的起源开始探究。
NPU 的诞生源于传统中央处理器(CPU)在模拟类脑计算时的效率低下。CPU 采用串行指令处理方式,与人脑依托数以千亿计的神经元实现并行激活与实时响应的运行机制存在根本差异。这种架构差异使得 CPU 在处理复杂智能任务时显得力不从心。而 NPU 的设计理念另辟蹊径,它从结构层面汲取人脑灵感,通过硬件级并行处理架构,重新定义计算范式。这一理念的萌芽可以追溯到 20 世纪中叶的开创性研究。
1943 年,神经生理学家沃伦・麦卡洛克(Warren McCulloch)与数学逻辑学家沃尔特・皮茨(Walter Pitts)联合提出了人工神经网络的数学模型,并设计了首个 “神经网络” 电路原型。但由于当时技术条件限制和计算能力不足,该研究进展缓慢,逐渐被边缘化。直到 1986 年反向传播算法的突破,以及 2000 年代初期语音识别技术的商业化成功,神经网络才重新焕发生机。“神经处理单元”(NPU)这一术语最早出现在 1990 年代末期的学术论文中,而 NPU 从象牙塔走向产业化,离不开苹果、IBM、谷歌等科技巨头的巨额投入。这些公司斥资数百亿美元推动专用芯片研发,最终将数十年的理论积累转化为可以嵌入智能手机和笔记本电脑的实用产品。
从本质上看,现代 NPU 采用仿生的并行处理框架,能够同时进行数百万乃至数万亿次微小运算,这正是业界常提及的 “每秒万亿次运算(TOPS)” 性能指标的技术基础。在执行卷积密集型计算时,NPU 展现出处理速度快且功耗控制出色的显著优势,相比 CPU 具有压倒性的效率优势。虽然图形处理器(GPU)同样支持并行计算,但其架构针对通用图形渲染进行了优化,在 AI 推理任务上的专业化程度不及 NPU,因此能效比相对较低。这种差异在移动设备上尤为关键,直接影响续航表现,成为推动 NPU 在智能手机领域普及的重要驱动力。
2017 年是 NPU 商业化的关键节点。华为率先在 Mate 10 中集成了基于寒武纪架构的 NPU,苹果也在 iPhone X 中首次引入了集成 NPU 的 A11 仿生芯片。尽管初代 NPU 性能有限,但已经开启了移动 AI 计算的新纪元。如今,NPU 的应用版图正在向笔记本电脑领域全面扩张。2024 年,微软正式推出 “AI PC” 产品类别,明确要求设备内置不低于 40 TOPS 的 NPU 算力。这一标准使得高通凭借骁龙 X 系列的 45 TOPS 高算力 NPU 抢占先机,而大量定价在 800 美元以下的入门级笔记本仍然采用不满足 AI PC 要求的传统处理器。
更加值得关注的是,独立 NPU 正在崛起。在 2025 年戴尔科技世界大会(Dell Technologies World)上,AI 工作负载的去中心化成为重要议题。戴尔展示了一款名为 Pro Max Plus 的概念笔记本,内部搭载了两颗高通 Cloud AI 100 处理器,形成了全新的 AI 加速架构。每颗处理器配备 32GB 专用内存,可为 AI 模型提供高达 64GB 的加速器内存空间,展现出远超传统集成 NPU 的处理能力。这种独立 NPU 方案突破了内存瓶颈,为移动端部署超大规模 AI 模型开辟了可能。此外,戴尔还推出了 Pro AI Studio 软件平台,旨在降低 AI 应用开发门槛。
与此同时,一家源自普林斯顿大学的初创公司 Encharge AI,凭借其革命性的模拟内存计算技术,推出了 AI 加速器 ——EnCharge EN100。EN100 采用精确且可扩展的模拟内存计算架构,解决了模拟计算长期面临的噪声挑战,带来了显著的性能提升。它在各种 AI 工作负载下展现出高达 20 倍的每瓦性能提升,计算密度远超传统数字架构。EN100 提供了 M.2 和 PCIe 两种规格配置,能满足不同场景的需求。EnCharge AI 还构建了全面的软件生态系统,为开发者提供完整的解决方案。该公司采用差异化的市场策略,重点布局快速增长的 AI PC 和边缘设备市场。
戴尔的概念笔记本与 EnCharge AI 推出的 AI 加速器,正标志着 AI PC 正在从 “AI 功能” 的试水阶段,走向 “AI 能力” 的专职部署。目前 AI 计算有数据中心和本地终端两个主要阵地,而独立 NPU 显然站在 “本地派” 阵营。与传统 GPU 相比,NPU 在功耗控制、内存搭配和计算架构等方面具有明显优势。它为未来 “本地大模型” 的发展趋势提供了更合适的解决方案,也展现出了全新的计算架构可能性。虽然戴尔的概念笔记本与 EnCharge AI 的产品仍处于发展阶段,但它们所展示的未来图景令人振奋,NPU 正在经历一场全新革命,有望让 AI 真正从云端走入用户设备之中。

热门文章
- 美国调查半导体设备商对华销售,泛林集团拒绝配合 2025-02-13
- HBM 技术路线图及 HBM4 关键特性解析 2025-06-24
- 为旌科技与国科微推出重磅AI SoC新品,安防芯片融合加速 2024-10-28
- 电容器的原理阐释与重要作用剖析 2025-05-21
- 电动车充电保护器:哪种最优及工作原理、电路详解 2025-06-16
- CTS Tusonix 4700 系列表面贴装滤波器产品选型手册(英文版) 2024-09-19
- 小米自研手机 SoC 玄戒 O1 来袭,能否突破重围? 2025-05-16
- 三极管放大电路原理的专业阐释 2025-06-06
- 探究驱动器、开关与激光二极管对提升激光雷达性能的作用 2025-02-26
- Vishay发布高性能40V MOSFET新品SiJK140E 2024-12-05