您的位置:首页 > 新品速递 > 正文

突破模拟计算困局,我国成功推出可扩展模拟矩阵计算芯片

时间:2025-10-15 15:09:06 浏览:18

近日,北京大学人工智能研究院孙仲研究员团队携手集成电路学院研究团队,取得了一项振奋人心的科研成果 —— 成功研制出一款基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。该芯片在精度方面实现了质的飞跃,首次达到了可与数字计算相媲美的水平,将传统模拟计算的准确度大幅提升了五个数量级,实现了令人瞩目的 24 位定点精度。

这一成果意味着我国科研团队在模拟计算领域实现了真正意义上的突破,也为后摩尔时代的计算架构转型提供了全新的技术方向。相关成果已发表于国际顶级学术期刊《Nature Electronics》。

0.jpg

传统的模拟计算方式虽具备速度快的优势,但其精度较低且难以扩展,精度问题一直是模拟计算领域的核心瓶颈,长期以来被视为全球性的世纪难题。而数字计算凭借其高精度和可编程性逐渐成为主流,但它也面临着 “内存墙” 的限制,算力密度与能效提升空间有限,在人工智能、科学计算和 6G 通信等高负载任务中,逐渐成为制约发展的瓶颈。

为了打破这一困局,孙仲团队提出了一种融合创新的新方案。他们巧妙地结合模拟低精度矩阵求逆与高精度矩阵向量乘法运算,构建出基于阻变存储器阵列的高精度、可扩展全模拟矩阵方程求解器。这一架构采用晶圆厂制造的三位阻变存储芯片,并通过分块矩阵算法实现 24 位定点精度,其精度相当于 32 位浮点数(FP32)精度。在实验中,芯片成功完成了 16×16 矩阵求逆运算,矩阵方程求解经过 10 次迭代后,相对误差可低至 10⁻⁷量级,仅需三次迭代即可达到与 FP32 数字处理器相当的精度表现。

2.jpg

在性能方面,这款芯片更是表现卓越。测试显示,在求解 32×32 矩阵求逆时,其算力已超越高端 GPU 的单核性能;当矩阵规模扩大至 128×128 时,计算吞吐量更是达到顶级数字处理器(GPU)的 1000 倍以上,能效提升超过 100 倍。可以说,传统 GPU 一天才能完成的工作,这颗芯片一分钟就能轻松搞定。

这一成果意味着我国科研团队在模拟计算领域实现了真正意义上的突破,也为后摩尔时代的计算架构转型提供了全新的技术方向。相关成果已发表于国际顶级学术期刊《Nature Electronics》。

在未来的应用场景中,这款芯片具有广阔的发展前景。在 6G 通信领域,它能让基站以更低的能耗实时处理海量天线信号,显著提升网络容量与能效;在人工智能领域,有望加速大模型训练中计算密集的二阶优化算法,显著缩短训练时间。同时,其低功耗特性使其具备在终端设备上直接运行复杂 AI 模型的能力,减少对云端算力的依赖,推动边缘计算向更高阶段发展。

3.jpg

除了北大的这一突破外,复旦大学团队也传来捷报。他们研发出全球首颗二维 - 硅基混合架构芯片,相关成果发表在《Nature》杂志上。这款芯片将二维超快闪存与成熟的 CMOS 工艺深度融合,攻克了二维信息器件工程化和存储速率的技术难题,首次实现了混合架构的工程化流片。

根据复旦大学的介绍,这颗芯片的性能 “碾压” 当前的 Flash 闪存技术,全片测试显示支持 8 位指令操作、32 位并行与随机寻址,良率高达 94.34%,展现出极强的工程落地能力。此次我国在芯片研制领域的两项重大突破,无疑为我国芯片产业的发展注入了强大的动力,也让我们对未来的科技发展充满了期待。


版权声明: 部分文章信息来源于网络以及网友投稿.本网站只负责对文章进行整理、排版、编辑.是出于传递更多信息之目的.并不意味着赞同其观点或证实其内容
的真实性如本站文章和转稿涉及版权等问题,请作者及时联系本站,我们会尽快处理。

网址:https://www.icpdf.com/xinpin/2344.html