您的位置:首页 > 设计应用 > 正文

创新手机芯片,赋能代理人工智能在智能手机的应用

时间:2025-06-16 14:21:33 浏览:26

在当今科技飞速发展的时代,代理人工智能能力正呈现出持续增强的态势。如今的 GenAI 智能手机已不再局限于简单的通信功能,正逐步向更加智能、具备情境感知能力的设备迈进,成功从传统的通信中心转变为真正智能且自主的伴侣。然而,在智能手机上实现代理人工智能并非易事,其最大的挑战来自于硬件层面。需要在电池寿命、处理能力和内存的严格限制条件下,为不断增长的人工智能功能提供充足的动力支持。

从实际需求来看,由于低延迟、增强隐私、成本和带宽效率、离线访问和个性化等关键要求,将代理人工智能的核心功能,如实时响应、深度个性化和主动协助等置于边缘是十分必要的。Counterpoint 研究副总裁 Neil Shah 指出:“Agentic AI 将把智能手机提升到一个全新的类别,使其成为能够识别复杂意图并实时调整的主动数字伴侣。这意味着设备将具备全面的情境理解能力,并超越当今 AI 仅提供辅助的‘你 +’模式,迈向‘你 ²’模式,其中 AI 是你的数字延伸,由在边缘运行的多个个性化学习模型提供支持。”

为了实现代理人工智能在边缘处理相关 AI 工作负载的承诺,Agentic AI 必须对智能手机的硬件组件功能进行大幅提升。像处理器(SoC)、内存、存储、电池、传感器和互连以及热管理等方面,都需要在目前顶级功能的基础上进行重大升级。特别是随着对先进的设备上人工智能快速高效地提供数据的需求不断增加,对内存子系统的要求也在急剧上升。

2.png

美光公司市场营销副总裁 Christopher Moore 表示:“内存带宽的增长速度已经赶不上计算性能的增长速度,我们正接近这样一个临界点:仅仅添加更多传统 DRAM 已不再是可行的长期解决方案。架构创新现在绝对至关重要。”

需要几项关键技术和行业创新来确保内存解决方案与边缘 GenAI 工作负载不断增长的需求相吻合:

1. 高级 LPDDR(LPDDR5X、LPDDR6)

LPDDR5X:当前标准,提供高达约 10.7 Gbps 的速度。

LPDDR6:JEDEC 即将推出的标准承诺提供更快的带宽(14.4 Gbps+)和更高的功率效率——这对于维持 AI 性能至关重要。

2. 内存处理(PIM)架构

PIM 从根本上挑战了当前的冯·诺依曼架构,并将计算功能直接集成到内存中,从而大幅降低延迟和功耗。尽管标准化和生态系统支持仍在不断发展,但 PIM 在加速特定 AI 任务方面拥有巨大的潜力。

3.宽I/O接口和先进封装

通过宽 I/O 扩展内存到 SoC 的数据路径可以提升带宽,通常采用 3D 堆叠等先进封装技术。这些方法还有助于热管理,并可能允许 OEM 将 DRAM 卸载到单独的封装中,以更好地服务于 AI 密集型工作负载。

除了硬件方面的进步,量化等技术对于将 GenAI 引入智能手机也具有至关重要的意义。量化技术可以通过降低模型精度来减少内存和计算需求,同时还能保持一定的准确性。这些创新与紧凑、高效、小型语言模型(SLM)相结合,能够促进设备上强大的 AI 性能,加速向智能、低功耗边缘应用的转变。

智能的强大程度很大程度上取决于其背后的系统,而内存性能则是移动端代理 AI 的核心驱动力。要满足 AI 日益增长的内存需求,需要整个业界齐心协力。这包括 SoC 设计师、内存和存储供应商、OEM、操作系统开发人员和 AI 研究人员之间进行深度合作,共同优化边缘 AI 的硬件和软件;JEDEC 等机构要加速 LPDDR6 等技术和未来封装接口的标准化,以确保互操作性和创新;对下一代内存、存储和封装技术形成共同愿景并进行投资,这对于跟上人工智能的快速发展以及释放完全自主的移动智能至关重要。

这不仅仅是一场追求更快处理器的竞赛,更是对整个行业的一次行动号召。其目的在于释放代理人工智能的变革潜力,将智能手机提升为真正能够丰富我们生活的智能伙伴。未来的移动出行不仅会更加智能,更将实现自主化。而这一伟大的变革,现在就已经拉开了帷幕。