您的位置:首页 > 行业资讯 > 正文

中国科学家芯片研究:攻克模拟计算低精度 “世纪难题”

时间:2025-10-15 09:03:36 浏览:32

近日,北京大学研究团队在《自然・电子学》(Nature Electronics)发表了实现高精度可扩展模拟矩阵方程求解的研究结果。该项研究由北京大学人工智能研究院孙仲团队主导,并联合集成电路学院研究团队共同完成。论文题目为《Precise and scalable analog matrix equation solving using resistive random - access memory chips》(《基于阻变存储器芯片的高精度、可扩展模拟矩阵方程求解》),该团队开创性地提出了全硬件实现的高精度、可扩展的模拟矩阵方程求解电路设计方案。

0.jpg

一直以来,模拟计算虽然具备高效高速低耗的特性,完美适配当前的计算需求,但精度缺陷明显,成为其应用中的沉重枷锁,这一低精度问题也被视为困扰模拟计算发展的 “世纪难题”。而该研究团队通过 “十年磨一剑” 的创新和坚持,首次将模拟计算精度提升到了数字计算同等水平,同时算力和能效提升百倍以上,为这一难题画上了完满的句号。

这一成果不仅实现了高精度模拟计算从 0 到 1 的突破,彻底扣开了模拟计算芯片在信息时代应用的大门,也凸显了中国团队在新型计算芯片研究领域的引领能力。孙仲表示,“这项工作的最大价值在于它用事实证明了,模拟计算能以极高效率和精度解决现代科学和工程中的核心计算问题。可以说,我们为算力提升探索出一条极具潜力的路径,有望打破数字计算的长期垄断,开启一个算力无处不在且绿色高效的新时代。”

回望计算机发展史,人类总是在 “精确” 与 “高效” 间寻找平衡。数字计算带来了足够的精确性,但牺牲了整体效能。尽管工程师们创造出了 “数字芯片” 这一精巧的作品,但随着 AI 时代的深入,数字芯片面临不可逾越的物理极限和无法满足需求的运算能力等问题。因此,越来越多的前沿科学家将希望寄托于模拟计算。而此次团队发表的成果,强有力地消除了模拟计算精度缺陷这一障碍,建立了模拟计算新的发展起点。

模拟计算的复兴,或许能让机器学会 “直觉式思考”,其高效低耗的特性有望颠覆当前众多领域的硬件底层,带来个性化的安全的新 AI,响应灵敏度大幅提升的机器人和自动驾驶,更快速稳定的 6G 信号网络等,这不仅是技术升级,更是一次认知世界的维度跃迁。

北京大学团队的突破性工作揭示了过去模拟计算始终无法兼顾精度和规模的原因,关键在于三个关键创新:

第一把钥匙是新型存储器技术 —— 阻变存储器(RRAM)。这种器件堪称 “电子界的变形金刚”,其电阻值能被精确调控为多个状态,且断电后还能保持数据,既是存储器,也可用作计算单元。当它们排列成阵列时,物理位置与矩阵的数学位置天然对应,在适当的电路设计下,芯片就变成超高效的 “模拟计算工厂”,运算速度比数字芯片快几个数量级,且能耗极低。

第二把钥匙源自团队 2019 年的奠基性发现。他们首次设计出能 “一步求解矩阵方程” 的模拟电路,将传统迭代算法压缩成瞬间完成的物理过程。当时虽受限于器件性能,精度仅为 4 - 6 比特,但如今通过将低精度矩阵求逆(LP - INV)与高精度矩阵乘法(HP - MVM)迭代结合,实现了更好的计算效果。

第三把钥匙是 “位切片” 技术。团队在 2019 年研究基础上,将早期模拟计算机用的数模混合提升精度方法升级为纯模拟版本,把 24 位精度的数字拆解成多个 3 位片段,分别存入不同 RRAM 阵列运算,最后叠加结果,大幅提升了模拟电路的计算精度。

这项突破的实测表现十分震撼:求解矩阵方程仅需几次迭代就能达到 24 位精度(相当于手机 GPU 的浮点计算精度),128 天线规模的 6G 通信信号检测的运算步骤也从数百步降低为 3 步。在 AI 领域,它可能彻底改写游戏规则,未来模拟芯片或许能让手机直接训练 GPT - 4 级别的模型,催生出 “自进化” 的智能终端。在 6G 通信中,它解决了 “信号检测” 关键痛点,为未来 “空天地海” 全域覆盖的 6G 网络提供了硬件基石。此外,在气象预报、自动驾驶、量子计算等需要超高速并行计算的任务中,模拟计算也可能带来突破,开启一个 “物理智能” 的新纪元。


版权声明: 部分文章信息来源于网络以及网友投稿.本网站只负责对文章进行整理、排版、编辑.是出于传递更多信息之目的.并不意味着赞同其观点或证实其内容
的真实性如本站文章和转稿涉及版权等问题,请作者及时联系本站,我们会尽快处理。

网址:https://www.icpdf.com/news/2341.html