云端AI虽强,但其固有的延迟、网络依赖和隐私风险始终是用户体验的隐形风险。无奈过去的移动端侧AI普遍能力不足,难以在语义、生图、问答等高频环境下提供同等的体验。
如今端侧AI的发展势头迅猛,AI手机的下一次进化,必须由底层技术革新来驱动。更强大、可靠的端侧AI能力,将是突破当前移动AI困境的关键。
在这样的行业背景下,稳坐全球智能手机芯片市场份额头把交椅的联发科,再次向行业抛出了一枚重磅AI旗舰芯——天玑9500。
深入到芯片底层,其通过架构、算法等多方面的底层技术创新,实现了令人“惊艳”的AI能力提升,令端侧AI能力达到了一个新的高度。同时,在最强NPU性能基础上,天玑9500构建了一个从芯片底层到应用体验,再到开发生态的完整创新体系,让AI从尝鲜加速走向常用,AI主动服务能力更强。

由此,联发科正让手机AI从“附加功能”转变为“核心能力”。
一、手机市场All in AI,天玑首发双NPU架构,端侧 AI向“好用”进化
如今,AI能力已经成为手机竞争的核心焦点。
前不久苹果秋季发布会刚刚结束,AI无疑是iPhone重要的新功能,苹果甚至直接在GPU的核心中塞入了神经网络处理器。同时,OPPO、vivo等手机巨头在旗舰机发布会上频频强调芯片层的AI能力革新所带来的AI体验提升。
从芯片厂商到终端巨头,所有玩家都在聚焦芯片AI能力的提升。AI体验响应不够流畅、常驻AI能力不够省电、AI云端依赖过于严重……想要实现真正的端侧AI自由,芯片层的技术革新势在必行。
此次联发科直接从芯片底层架构动刀,采用了突破性的双NPU架构,一颗性能极强的NPU990与一颗能效出色的超能效NPU相结合。

性能 NPU,峰值性能暴涨111%的同时,峰值性能功耗还下降了56%。
具体来看,这颗性能NPU在权威ETHZ AI性能基准测试中的跑分达到了15015分,荣登榜单第一名。

▲ETHZ AI基准测试排行
根据榜单数据,当前同类旗舰手机芯片的成绩通常在8000-9000分左右,天玑9500 AI性能的提升是十分可观的,连续数年持续霸榜,天玑在推动端侧 AI 落地上的决心和投入可见一斑。
与此同时,超强性能下,天玑9500的双NPU甚至实现了更低的功耗。其中能效NPU采用了存算一体(CIM)架构,尚属业内首个。能效NPU让手机在运行低功耗小模型时的功耗下降了42%之多,让手机端侧AI拥有了能够始终在线的扎实基础。

此外还有几项值得一提的黑科技,进一步优化了端侧AI使用体验。
·全新的Transformer专用固化电路设计:这项设计可以让端侧AI模型跑的又快又省电,实现了硬件级的AI加速,结合推理加速算法Eagle的应用,生成性能最高提升了2倍。
·首发支持四通道UFS 4.1:可以让模型的加载速度再次提升40%。同时,新的大模型内存压缩技术能进一步节省带宽占用、降低功耗开销。
·端侧支持了BitNet 1.58bit推理框架技术,相比上代实现了33%左右的功耗下降。
