尽管苹果(Apple)和三星(Samsung)都拥有自主开发的应用处理器,在高阶的智能手机市场形成一定的门坎;但是,联发科技(MediaTek)最近在全球移动通信大会(MWC)上推出最新的曦力(Helio) P60芯片组,期望藉由移动AI应用重振其智能手机市场。

联发科的计划是重新进军直接与高通展开竞争的中、高阶智能手机市场。

联发科将Helio P60视为“首款内建多核心人工智能(AI)处理器(移动APU)和联发科NeuroPilot AI技术的新一代智能手机SoC平台。”

此举突显了智能手机市场竞争焦点的重大转变——开始转移至移动AI。各家芯片供应商正竞相将神经网络引擎用于手持设备上。他们的目标很简单,希望启用人工智能体验——语音用户接口(UI)、人脸解锁、增强现实(AR)等——在客户端设备上处理得更快、更好,无论有没有网络连接。

The Linley Group资深分析师Mike Demler说:“光是去年我们就看到第一批搭载嵌入式神经引擎的智能手机处理器,这些几乎都是旗舰级的处理器,例如Apple All、华为麒麟(Huawei) Kirin 970、高通(Qualcomm)骁龙(Snapdragon) 835以及联发科的Helio X30等。”

Demler表示:“联发科将在更低层添加神经引擎的作法并不令人意外,但有意思的是,他们打算采用较其旗舰产品X30更强大的核心来实现。”

换句话说,一个主要由中国手机制造商推动的中阶智能手机供应商社群,开始显得蠢蠢欲动。他们尽快出击移动AI市场。

联发科将其所谓的“新高阶”(new premium)定义为“以中等价格提供优质性能与特性的设备”。联发科全球销售总经理Finbarr Moynihan解释:“这是当今智能手机的动向,包括Oppo、Vivo与联想(Lenovo)等中到高阶业者都渴望能地缩小其与顶级竞争对手的差距,希望在应用程序(app)、特性与AI方面取得重大进展。”

联发科指出,2017年全球智能手机出货量的48%来自中国OEM,主要针对新兴市场。联发科引用TrendForce的报告指出,2017年中阶消费品牌大幅成长,小米(Xiaomi)智能手机的产量增幅高达76%,而Transsion、OPPO和Vivo也有显著的成长。

Helio P60在八核心CPU中配备4个Arm A73处理器和4个Arm A53处理器。联发科声称,由于采用big.LITTLE八核心设计,Helio P60的CPU性能较其前代产品Helio P23和Hleio P30提升了70%。藉由使用最高800MHz的新型Mali G72 GPU,P60还可将GPU性能提高70%。

神经网络引擎

然而,Helio P60之所以特别之处在于其内建NeuroPilot AI平台,桥接CPU、GPU与板载AI加速器。联发科的AI架构藉由在SoC中协调CPU、GPU与AI加速器之间的运算负载,以管理异质的AI运算架构,并使得性能与能效最大化。

联发科并证实,P60的AI加速器中整合了Cadence Vision P6核心。

CadenceVisionP6 Cadence Vision P6(来源:Cadence)

相较于联发科技旗舰级Helio X30——采用Cadence Vision P5实现每秒70 GMAC的高性能,Helio P60每秒可处理280 GMAC。Demler表示:“因此,P60的整体处理器性能仅降低一个等级,神经引擎性能则提高了4倍。”

相较于Helio P60神经网络引擎的性能,Demler说:“华为麒麟970可达到〜1 TMAC/s(FP16),因而能以更高分辨率实现较P60更高4倍的神经网络性能。在280 GMAC/s时,P60可媲美Apple A11的300GMAC/s性能。”

缺乏AI基准

然而,我们所咨询的大多数分析师都同意,由于缺乏深度学习加速器的基准,在进行比较时几乎没有什么意义。Demler称此为“一个重大的开放问题”,并指称这一移动AI的困境让我们很容易就陷入“GOPS/TOPS的市场炒作之战”。

Tirias Research首席分析师Jim McGregor表示赞同。他说:“这是一个令人困惑的话题,因为目前并没有什么细节和基准可参考。联发科和其他公司使得这些AI解决方案听起来就像可以完成任何事情一样,但这一切通常并不真实。”

例如,Demler说,联发科P60中使用的Cadence Vision P6核心的优化主要针对计算机视觉应用,而非通用神经网络。

McGregor解释,“首先,你必须了解大多数的AI处理器,例如联发科、Apple和华为称其解决方案为'专用'的意思——这意味着他们使用单个IP区块进行AI加速。在大多数情况下,这表示从Cadence或Ceva等其他业者取得授权的IP区块。” McGregor指出,这种IP区块“支持有限的可配置神经网络”,但是“没人会确切地说出这些限制是什么。”

因此,很显然地,在应用处理器内部放置神经网络引擎并不是最后的任务。McGregor指出,开发和训练新的神经网络,仍然需要在数据中心进行,他们必须依赖更多高精确度、强大的训练处理器。

如果应用开发人员和OEM要利用智能手机应用程序处理器内部的神经引擎,他们就需要一个连接至底层硬件的软件架构。根据Demler的观察,“所有主要的移动处理器设计商(高通、联发科、华为、Apple)都提供神经网络SDK。”但他们都需要支持像Caffe和Torch这样的广泛训练架构。

以联发科而言,Moynihan指出,该公司提供了NeuroPilot AI SDK架构,能让App开发人员和OEM“直接下探至硬件,看看AI软件如何在CPU、GPU和专用AI加速器上运行”。

同时,随着Google为Android机器学习开发了Android NNAPI和运行引擎,App开发人员和OEM也需要能够“查找并察看Android Networks API (Android NNAPI)所说的内容,”Moynihan补充说,“联发科的NeuroPilot SDK完全符合Android NNAPI。”

SystemarchitectureforAndroidNeuralNetworksAPI_original Android Neural Networks API系统架构(来源:Google)

在部署让智能手机处理器执行AI应用程序的各种方法中,高通似乎采取了一个稍微不同的方法。

McGregor说,高通的解决方案很不一样,因为“他们采用已经用于芯片上的多种资源,包括Hexagon DSP、Adreno GPU和Kryo CPU核心。”

不过他也补充说:“由于没有可用的基准,就很难确定哪一种方法比较好,但高通的架构模式确实提供了更大的灵活性。”

AI软件之争

无论底层硬件如何,这些软件最终都能真正区分在任何智能手机上的AI体验。

McGregor说:“现在,这些应用针对的是手机上的常见功能,例如摄影和数字助理。然而,通常由第三方软件开发人员来开发和训练模型供设备使用。”

他指出,“在有限的情况下,有些模型或工具库可用。高通以影像辨识为基础,开发了一些工具库,三星则着重于摄影技术,Apple预计也在开发自家的模型。”

其他情况则取决于应用程序开发人员,但这存在明显的限制,McGregor说:“许多应用开发人员并不习惯深度学习,或者无法存取深度学习所需的大型数据中心。”

The Linley Group的Demler则在最近的《微处理器报告》(Microprocessor Report)中对于AI软件的开发提出了警告。“处理器架构的多样性为Android App开发人员带来了挑战,因为即使是在缺乏专用深度学习加速器的设备上,这些App也必须能够工作。”另一方面,他指出iOS App的开发人员只需要支持一些专为Apple设计的处理器。

同样地,Tirias Research首席分析师Kevin Krewell警告道:“我看到最大的问题是每家芯片和IP供应商都以不同的方式耕耘机器学习领域。但Arm可能拥有最佳机会,能在一个IP上为多家供应商提供标准化。”

(本文授权编译自EDN姐妹网站,原文Mobile AI Race Unfolds at MWC ,Susan Hong编译)

20160630000123