向右滑动:上一篇 向左滑动:下一篇 我知道了
广告

协同芯片:AI的明智选择?

时间:2018-08-20 作者:Imagination互联与家居互联部市场总监Simon Forrest 阅读:
现在台式机CPU和移动SoC大多都采用多核芯片,因为它们灵活的可扩展架构使其能够按需提供不同的性能,AI“协同芯片”采用类似的方法,它们不仅仅只被设计成一个,而是多个计算GPU和神经网络加速器(NNA)来为特定的应用提供足够的性能,同时确保对硅片尺寸进行优化,将芯片的成本降至最低。这些处理器会紧挨着主应用处理器(SoC)作为“协同芯片”,承载主应用处理器上的NNA内核需要处理的AI推理任务。

多年来,半导体行业一直致力于将越来越多的组件紧密的集成到单个片上系统中(SoC)。毕竟这对于庞大的应用而言是非常实用的解决方案。通过优化处理器的定位,存储器和外部设备芯片厂商能够将数据路径调整到最短,从而提高功率效率并取得更高的性能,此外还能够显著的降低成本。通过这些方法,该行业已经取得了巨大的成功,SoC几乎是我们所有消费电子产品的标准组件。

AI作为一种标准

随着更多的公司意识到利用神经网络处理各种任务(比如自然语言处理、图片识别分类)的巨大潜力,引入人工智能要素的产品数量也在稳步增加。与此同时,这些任务的处理过程正在从基于云的架构迁移到本地终端设备来实现,现在专用硬件神经网络加速器也已经嵌入到SoC器件中。

20180821-ai-1.jpg

AI正集成到更多的SoC器件中

从语音激活的消费电子产品(比如虚拟助理)到高级驾驶辅助系统(ADAS),集成的神经网络人工智能(AI)所面临的机会正在多个细分的市场中展开,不可否认,人工智能(AI)被认为是许多解决方案必不可少的要素。

一种方法不能适用所有

然而,尽管AI应用的数量正在不断增加,但这并不意味着集成有AI加速功能的SoC能够适用所有的场景。实际上,如果我们考虑AI能够覆盖大多数的细分市场,那么由于使用该技术的产品可能有很多不同的处理要求,自然就会产生碎片化的差异。细分的市场对于专用的SoC器件是一种挑战,因此“一刀切”通用的方案不再适用。虽然一些市场(比如智能手机、ADAS)为SoC供应商提供了大量的机会,但是很多针对AI使用的市场目前仍然比较低迷。例如某些产品可能需要AI进行语音处理或图像识别,但不一定两者都需要。同样的智能家居供应商认为将传统的智能手机SoC嵌入AI功能就集成到他们的产品中并不是很好的解决方案,因为这不符合成本效益。

认识AI协同芯片

现在台式机CPU和移动SoC大多都采用多核芯片,因为它们灵活的可扩展架构使其能够按需提供不同的性能,AI“协同芯片(Companion chips)”采用类似的方法,它们不仅仅只被设计成一个,而是多个计算GPU和神经网络加速器(NNA)来为特定的应用提供足够的性能,同时确保对硅片尺寸进行优化,将芯片的成本降至最低。这些处理器会紧挨着主应用处理器(SoC)作为“协同芯片”,承载主应用处理器上的NNA内核需要处理的AI推理任务。

现在SoC供应商有机会创建一个传统的通用应用处理器,能够经济高效地适用于多个市场,同时可以配套AI协同芯片来满足一些特定应用或小众应用对于AI功能的需求。

从OEM厂商的角度来看,他们现在可以选择适当地扩展自己的产品解决方案,这取决于他们期望在整个应用方案中对于AI处理操作的开销。

20180821-ai-2.png

一个AI处理器的例子:根据不同应用NNA的数量可以灵活的增减

典型的协同AI SoC芯片包括负责内部事务的通用控制CPU、用于高性能计算的GPU内核(而不是专门用于处理图形和3D变换操作)以及多个NNA(神经网络加速器),根据不同的神经网络和推理引擎可灵活组合,此外还可以根据不同的任务采用不同的精度。举个例子,在双NNA系统中,其中一个NNA可以用来执行图像识别任务,将结果传递给另一个NNA之前能够识别出场景中的人脸部分,另一个NNA会将人脸部分划分为单独的特征从而识别出面部表情。

另一个例子就是汽车,对六核心的AI协同芯片进行分区,其中三个NNA(每个NNA负责不同的方面)用来识别道路上的标志,与此同时另外三个将专门负责行人检测。NNA的数量和任务的分配是根据应用的需求而确定的。这个概念可以扩展到一系列专用的AI处理器,每个处理器都会集成不同数量的NNA来满足不同任务的性能需求。

从云端到本地

我们已经看到了部署在云端的专用AI芯片,比如谷歌公司推出的TPU、微软公司和英特尔合作的Brainwave项目采用Stratix FPGA作为解决方案,现在这些主要用于AI的机器学习和算法的训练。

20180821-ai-3.png

典型的云端AI解决方案——太庞大了!

然而并不是所有的设备都会连接到云服务,面对众多不用的市场应用,业界认为至少可以把一些AI任务用本地设备自身来完成,这么多市场需求非常的复杂,正如我们之前讨论过的,没有完全通用的解决方案。业界的所有供应商都已经开始利用神经网络来实现某些特殊的需求,而且向协同AI芯片的转变有望成为AI处理解决方案又一令人兴奋的一步。

本文为EDN电子技术设计 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
您可能感兴趣的文章
  • AI如何改变边缘计算的未来 每个物联网设备都会持续收集数据,因此需要快速分析,达到实时决策,特别是对于自动驾驶汽车、电网、远程手术、石油钻井平台,甚至军用无人机等应用。
  • Siri被曝偷偷给用户隐私录音,还上传给苹果 苹果泄露隐私主要是其语音助手Siri。你与Siri的对话可能会被录音,并且上传至苹果,由苹果分发给Siri的外包公司进行分析。除此之外,Apple Watch、HomePod等设备上的Siri被意外唤醒时的唤醒词也会被录音,并由苹果送到外包公司分析。据称,采用如此的做法主要是为了提升Siri的智能性。
  • 阿里平头哥交成绩单,首款芯片玄铁910曝光 这家芯片公司发布了首款处理器——玄铁910(“玄铁”取自金庸小说、杨过手里的神剑之名,有重剑无锋大巧不工的含义)。据官方介绍,这款处理器基于开源RISC-V架构,同时也是该架构下性能最强的处理器,采用 12nm 制程,主频 2.5GHz,7.1Coremark/MHZ(世界公认的 BenchMark)。
  • 2019年数据中心电源解决方案 数据中心内的系统必须要防止受到破坏,停机会造成金钱损失及客户投诉。运营商会采用不间断电源系统及配电单元来安全可靠地向敏感设备供电。备有后备电源的中小企业和住宅楼也有可能采用负载管理方案。通常每机架功耗超过10kW,因此在机架内不太容易实现电源保护。业内即将采用EoR UPS系统。
  • 华为“200万年薪”背后,人工智能博士真的可以这么高薪 昨天,一则华为内部邮件“华为将对八位2019届顶尖学生实行年薪制管理”登上了各大平台的热榜,网友大呼华为“大手笔”!EDN小编扒了扒这些百万年薪博士的履历,发现他们的专业背景大多和人工智能、大数据等当前最热门的专业相关。众所周知,一般的博士生毕业拿到的薪资并没有像任总提供的那么高。这就引发了知乎网友对博士与博士之间差距的思考。
  • 详解语音识别的技术原理:语音如何变为文字? 简要给大家介绍一下语音怎么变文字的吧。需要说明的是,这篇文章为了易读性而牺牲了严谨性,因此文中的很多表述实际上是不准确的。对于有兴趣深入了解的同学,本文的末尾推荐了几份进阶阅读材料。
相关推荐
    广告
    近期热点
    广告
    广告
    广告
    可能感兴趣的话题
    广告